[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

Sat, Aug 10, 2024

Minha IA companheira.

O Senstone é um gravador de voz inteligente que capta e converte automaticamente a fala em texto, armazenando as informações em forma de notas na nuvem. Este gadget opera offline, tornando-se uma ferramenta ideal para quem deseja capturar ideias em momentos em que não é possível acessar um celular ou bloco de anotações.

Desenvolvido como um dispositivo wearable, o Senstone pode ser fixado em locais como a camisa, mochila ou na pulseira do relógio, e até mesmo usado como colar. Essa versatilidade permite que o usuário faça anotações “mentais” enquanto caminha ou dirige, facilitando a captura de insights sem interromper suas atividades.

O processo de transcrição é feito em quase tempo real pela inteligência artificial do software da fabricante, que interpreta os áudios e os categoriza automaticamente como compromissos, tarefas ou outras notas relevantes. Essa atribuição inteligente assegura que cada nota seja arquivada e acessada no aplicativo correspondente de forma eficiente.

Estou planejando alguns avanços significativos para o futuro próximo, incluindo a integração do dispositivo com uma inteligência artificial local, prometendo expandir ainda mais suas capacidades. Novidades sobre essas atualizações serão anunciadas em breve aqui no Assunto Nerd, à medida que os testes laboratoriais progridem.

Thu, Aug 08, 2024

Criar facilmente aplicativos de IA generativa.

Os modelos de linguagem estão mudando a forma como construímos software, servindo como um orquestrador flexível entre fontes de conhecimento e interfaces de usuário. Construir esse tipo de software traz novos desafios para melhorar a qualidade, reduzir a latência e prototipar rapidamente. Hoje, estamos anunciando vários avanços nessa direção.

Customização de modelo mais simples e eficiente

Como os grandes modelos de linguagem estão encontrando rapidamente novos e mais especializados casos de uso, é fundamental que os desenvolvedores possam adaptar de forma rápida e eficiente os modelos de ponta para suas aplicações específicas. Para isso, estamos anunciando a capacidade de personalizar qualquer um de nossos modelos principais e especializados na La Plateforme, incluindo Mistral Large 2 e Codestral.

Os modelos podem ser personalizados usando um prompt base, poucos exemplos (few-shot prompting) ou ajuste fino (fine-tuning), e você pode trazer seu próprio conjunto de dados. Crucialmente, a personalização de modelos segue as técnicas desenvolvidas pela equipe científica da Mistral AI para criar modelos de referência fortes, então você pode esperar um desempenho semelhante dos seus modelos ajustados. Os desenvolvedores podem usar a personalização de modelos para integrar capacidades de IA generativa em suas aplicações com conhecimento de domínio específico, contexto ou tom.

Esperamos que o ajuste fino em nossos modelos altamente capazes desbloqueie uma riqueza de aplicações inovadoras e estamos ansiosos para ver o que será construído com isso. Confira nossa documentação sobre ajuste fino e experimente a personalização de modelos na La Plateforme.

Lançamento alfa de Agentes

Estamos também introduzindo uma versão inicial de Agentes, que envolve modelos com contexto e instruções adicionais, para exposição no Le Chat ou API. Agentes ajudam você a criar comportamentos e fluxos de trabalho personalizados com um conjunto simples de instruções e exemplos. Com as capacidades avançadas de raciocínio do Mistral Large 2, você pode adicionar fluxos de trabalho cada vez mais complexos com múltiplos agentes que são fáceis de compartilhar dentro da sua organização. Estamos trabalhando na conexão dos Agentes com ferramentas e fontes de dados e aguardamos ansiosos por seu feedback.

Versão estável do nosso SDK de cliente

Fizemos atualizações significativas na biblioteca mistralai para melhorar sua usabilidade e consistência, e hoje estamos lançando o mistralai 1.0, disponível tanto para Python quanto para Typescript. Saiba mais sobre nosso novo SDK e confira o guia de migração.

Wed, Aug 07, 2024

Modelos LLMs médico e financeiro.

Palmyra-Med e Palmyra-Fin são modelos que oferecem precisão incomparável para aplicações de IA generativa em medicina e finanças, superando outros modelos como GPT-4, Med-PaLM-2 e Claude 3.5 Sonnet, e passando no exame CFA nível III. Esses modelos são especialmente adequados para otimizar fluxos de trabalho de IA em setores conhecidos por suas rigorosas regulamentações e padrões de conformidade.

Palmyra-Med e Palmyra-Fin se juntam a uma série de LLMs de alto nível desenvolvidos pela Writer, incluindo Palmyra-X, um modelo de uso geral, e Palmyra-Vision, para análise de imagens. Combinados com a plataforma de IA generativa full-stack da Writer, que inclui tecnologia RAG integrada, proteções de IA e um conjunto de ferramentas para desenvolvedores, esses modelos facilitam a construção de aplicativos de IA médica e financeira compatíveis e eficientes.

Ambos os modelos, Palmyra-Med e Palmyra-Fin, estão disponíveis via Writer por meio de nossa API, ferramentas sem código e Writer Framework. Eles também podem ser acessados sob uma licença de modelo aberto, permitindo implantação local ou em nuvem privada. Para mais informações sobre licenciamento para uso comercial, entre em contato pelo e-mail sales@writer.com.

Melhorando os resultados dos pacientes com precisão médica recorde

Palmyra-Med é a versão mais recente do nosso modelo de saúde, e o mais preciso disponível. Em testes, o Palmyra-Med obteve uma média de 85,9% em benchmarks médicos, superando o Med-PaLM-2 em quase 2 pontos percentuais, mesmo quando comparado ao desempenho de zero-shot do Palmyra.

Os resultados mostram um modelo confiável que pode melhorar os resultados dos pacientes e apoiar pesquisas médicas através de sua capacidade de lidar com tarefas complexas em diversas disciplinas:

  • Conhecimento Clínico e Anatomia: Com pontuações de 90,9% em Conhecimento Clínico MMLU e 83,7% em Anatomia MMLU, Palmyra-Med-70b demonstra profunda compreensão de procedimentos clínicos e anatomia humana, útil para diagnósticos precisos e planejamento de tratamentos.
  • Genética e Medicina Universitária: Com 94,0% em Genética Médica e 84,4% em Medicina Universitária, o modelo se destaca na interpretação de dados genéticos e aplicação de conhecimentos médicos complexos, cruciais para aconselhamento genético e educação médica.
  • Pesquisa Biomédica: Com 80% no PubMedQA, Palmyra-Med-70b mostra sua capacidade de extrair e analisar informações da literatura biomédica, apoiando pesquisas e práticas médicas baseadas em evidências.

Palmyra-Med-70b oferece desempenho superior a um custo de US$ 10 por 1 milhão de tokens de produção, significativamente mais barato que modelos maiores como o GPT-4, que custa US$ 60 pela mesma quantidade de produção. Isso torna Palmyra-Med-70b uma opção atraente para profissionais e instituições médicas, ilustrando uma vantagem importante dos modelos específicos de domínio.

Trazendo Experiência Financeira Incomparável para o Writer

A adoção de IA generativa no setor financeiro enfrenta desafios únicos: demonstrações financeiras extensas, terminologia complexa e análises de mercado diferenciadas. Para superar esses obstáculos, combinamos um conjunto de dados de treinamento financeiro bem selecionado com dados de instruções de ajuste fino personalizados, criando um LLM financeiro altamente preciso. Este modelo pode potencializar diversos casos de uso, como:

  • Análise e Previsões de Tendências Financeiras: Examinar a dinâmica do mercado e desenvolver previsões para o desempenho financeiro.
  • Análise de Investimento: Produzir avaliações detalhadas de empresas, indústrias ou indicadores econômicos.
  • Avaliação de Riscos: Avaliar os perigos potenciais associados a diferentes ferramentas ou abordagens financeiras.
  • Estratégia de Alocação de Ativos: Recomendar combinações de investimentos adaptadas às preferências de risco individuais e aos objetivos financeiros.

Desempenho Superior do Palmyra-Fin em Relação a Modelos de Uso Geral

O Palmyra-Fin apresenta uma melhoria significativa em relação a modelos de uso geral, como o GPT-4, que obteve anteriormente um desempenho de 33% no exame.

Testamos o Palmyra-Fin em um benchmark de avaliação longa para medir seu desempenho em diversos casos de uso financeiro do mundo real. Ele superou modelos populares como Claude 3.5 Sonnet, GPT-4o e Mixtral-8x7b, demonstrando suas habilidades e experiência financeira excepcionais.


Introdução aos Palmyra LLMs

Os LLMs específicos de domínio estão na vanguarda da inovação em IA, transformando a forma como as indústrias constroem aplicações especializadas. A Writer lidera esse movimento com modelos como Palmyra-Med e Palmyra-Fin, que possuem profundo conhecimento específico do setor e são ideais para uso corporativo. Esses modelos prometem maior precisão, eficiência, melhor gerenciamento de dados e conformidade regulatória. Ao permitir inovações mais rápidas e fornecer soluções personalizadas para desafios únicos do mercado, Palmyra-Med e Palmyra-Fin oferecem uma vantagem competitiva distinta, anunciando uma nova era de soluções de IA inteligentes e sustentáveis.

Fri, Aug 02, 2024

Turbine a instalação de pacotes em Python

O que é uv?

uv é um instalador e resolvedor de pacotes Python turbo-rápido, escrito em Rust como um substituto de alta velocidade para pip, pip-tools e virtualenv.

É de 10 a 100 vezes mais rápido que pip e pip-tools: com um cache aquecido, as instalações com uv são quase instantâneas.

Alguns destaques adicionais:

  • Economiza Espaço em Disco: utiliza um cache global para evitar dependências duplicadas.
  • Funciona em Qualquer Lugar: suporta macOS, Linux e Windows.
  • Fácil de Instalar: você não precisa ter Python ou Rust instalados. Pode ser usado com curl, pip ou brew.
  • Recursos Avançados: suporta substituições de versão de dependências e estratégias alternativas de resolução.
  • Melhores Mensagens de Erro: Mensagens de erro de melhor qualidade com um resolvedor de rastreamento de conflitos.
  • pip Avançado: instalações editáveis, dependências git, dependências locais, distribuições de origem.

Por que é rápido:

  • Rust: Rust é conhecido por sua velocidade e segurança.
  • “resolver”: uma maneira inteligente de determinar quais versões dos pacotes podem funcionar juntas.
  • Cache global de módulos: ele lembra dos arquivos que já viu, então não faz download ou reconstrói dependências novamente.
  • Copy-on-Write e hardlinks: isso ajuda a minimizar o uso de espaço em disco.

A visão maior do uv é transformar o gerenciamento de pacotes Python com sua velocidade e confiabilidade. O próximo Poetry?

Se você está no ecossistema Python há tempo suficiente, sabe como é doloroso configurar um ambiente Python ou criar um pacote.

uv tem planos de estabelecer um “Cargo para Python,” um gerenciador unificado de pacotes e projetos Python que seja extremamente rápido, confiável e fácil de usar.

“Imagine: um único binário que inicializa sua instalação do Python e fornece tudo o que você precisa para ser produtivo com Python, integrando não apenas pip, pip-tools e virtualenv, mas também pipx, tox, poetry, pyenv, ruff e mais.

As ferramentas do Python podem proporcionar uma experiência de baixa confiança: é um trabalho significativo iniciar um novo projeto ou dar continuidade a um projeto existente, e os comandos falham de maneiras confusas. Em contraste, ao trabalhar no ecossistema Rust, você confia que as ferramentas funcionarão. A cadeia de ferramentas Astral tem como objetivo transformar a experiência com Python de uma experiência de baixa confiança para uma de alta confiança.”

Estou empolgado para ver o uv melhorar significativamente a experiência de desenvolvimento em Python!

Benchmarks

Vamos ver alguns números de seus benchmarks

instalação a frio (8–10x mais rápido)

Isso equivale a executar uv pip sync em uma nova máquina uv é 8–10x mais rápido que pip e pip-tools sem cache.

instalação com cache (80–115x mais rápido)

É 80–115x mais rápido ao executar com um cache aquecido (por exemplo, recriando um ambiente virtual ou atualizando uma dependência)

Mais sobre esses benchmarks, instalando transformers

Testei o uv no pacote transformers da Hugging Face. A diferença de velocidade é claramente visível.

Como usar?

Abaixo estão alguns comandos que você deve ter em mãos para começar a usar o uv.

Desde a instalação até a sincronização de dependências. Encontre o código no Deepnote. Instalação

# Em macOS e Linux.
curl -LsSf https://astral.sh/uv/install.sh | sh

# Windows.
powershell -c "irm https://astral.sh/uv/install.ps1 | iex"

# Com pip.
pip install uv

# Com pipx.
pipx install uv

# com Homebrew.
brew install uv

# Com Pacman.
pacman -S uv

Criando venv

# No macOS e Linux.
source .venv/bin/activate

# Windows.
.venv\Scripts\activate

Instalando pacotes

uv pip install flask               
uv pip install -r requirements.txt

Sincronizando dependências.

uv pip sync requirements.txt  # Install from a requirements.txt file.

Wed, Jul 31, 2024

Virada de jogo com outra nova IA minúscula e poderosa.

O Google acaba de lançar o Gemma 2 2B, um modelo de inteligência artificial compacto, mas poderoso, que rivaliza com os líderes do setor, apesar de seu tamanho significativamente menor. Com apenas 2,6 bilhões de parâmetros, este novo modelo de linguagem demonstra desempenho igual ou superior a equivalentes muito maiores, incluindo o GPT-3.5 da OpenAI e o Mixtral 8x7B da Mistral AI.

Acessibilidade e impacto em IA móvel

Anunciado no Blog de Desenvolvedores do Google, o Gemma 2 2B representa um grande avanço na criação de sistemas de IA mais acessíveis e implantáveis. Seu pequeno tamanho o torna particularmente adequado para aplicativos em dispositivos, potencialmente impactando significativamente a IA móvel e a computação de ponta.

Desempenho de destaque

Testes independentes realizados pela LMSYS, uma organização de pesquisa de IA, mostraram que o Gemma 2 2B alcançou uma pontuação de 1.130 em sua área de avaliação. Este resultado o coloca um pouco à frente do GPT-3.5-Turbo-0613 (1117) e Mixtral-8x7B (1114), modelos com dez vezes mais parâmetros.

As capacidades do modelo vão além da mera eficiência de tamanho. O Google relata que o Gemma 2 2B obteve pontuação de 56,1 no benchmark MMLU (Massive Multitask Language Understanding) e 36,6 no MBPP (Mostly Basic Python Programming), marcando melhorias significativas em relação ao seu antecessor.

Desafiando a sabedoria predominante

Esta conquista desafia a sabedoria predominante no desenvolvimento da IA de que modelos maiores têm um desempenho inerentemente melhor. O sucesso do Gemma 2 2B sugere que técnicas sofisticadas de treinamento, arquiteturas eficientes e conjuntos de dados de alta qualidade podem compensar a contagem bruta de parâmetros. Este avanço pode ter implicações de longo alcance para o campo, potencialmente mudando o foco da corrida por modelos cada vez maiores para o refinamento de modelos menores e mais eficientes.

A arte da compressão de IA

O desenvolvimento do Gemma 2 2B também destaca a crescente importância das técnicas de compressão e destilação de modelos. Ao destilar efetivamente o conhecimento de modelos maiores em modelos menores, os pesquisadores podem criar ferramentas de IA mais acessíveis sem sacrificar o desempenho. Esta abordagem não só reduz os requisitos computacionais, mas também aborda preocupações sobre o impacto ambiental do treinamento e da execução de grandes modelos de IA.

O Google treinou o Gemma 2 2B em um enorme conjunto de dados de 2 trilhões de tokens usando seu hardware avançado TPU v5e. O modelo multilingue aumenta o seu potencial para aplicações globais.

Tendência crescente em IA eficiente

Esta versão está alinhada com uma tendência crescente da indústria em direção a modelos de IA mais eficientes. À medida que aumentam as preocupações sobre o impacto ambiental e a acessibilidade de grandes modelos de linguagem, as empresas tecnológicas estão se concentrando na criação de sistemas menores e mais eficientes que possam funcionar em hardware de consumo.

Revolução do código aberto

Ao tornar o Gemma 2 2B de código aberto, o Google reafirma seu compromisso com a transparência e o desenvolvimento colaborativo em IA. Pesquisadores e desenvolvedores podem acessar o modelo por meio do Hugging Face via Gradio, com implementações disponíveis para vários frameworks, incluindo PyTorch e TensorFlow.

Embora o impacto a longo prazo deste lançamento ainda não seja conhecido, o Gemma 2 2B representa claramente um passo significativo para a democratização da tecnologia de IA. À medida que as empresas continuam a ultrapassar os limites das capacidades dos modelos menores, podemos estar entrando numa nova era de desenvolvimento de IA – uma era em que capacidades avançadas não são mais exclusivas dos supercomputadores com uso intensivo de recursos.

Thu, Jul 25, 2024

Mistral Large 2: Outra super nova IA!


Mistral AI lançou o Mistral Large 2, a versão mais recente do seu principal modelo de linguagem, que apresenta melhorias significativas na geração de código, matemática e capacidades multilíngues. O novo modelo, com 123 bilhões de parâmetros, possui uma janela de contexto de 128.000 tokens e visa desafiar os líderes do setor em desempenho e eficiência.

O Mistral Large 2 mostra desempenho impressionante em vários benchmarks. Em tarefas de geração de código, como HumanEval e MultiPL-E, ele supera o Llama 3.1 405B (lançado ontem pela Meta) e fica apenas abaixo do GPT-4. Em matemática, particularmente no benchmark MATH (resolução de problemas sem raciocínio em cadeia), o Mistral Large 2 é segundo apenas para o GPT-4o.

As capacidades multilíngues do modelo também receberam um impulso substancial. No benchmark multilíngue MMLU, Mistral Large 2 supera o Llama 3.1 70B base em média por 6,3% em nove idiomas e tem desempenho equiparável ao Llama 3 405B.

Apesar do seu grande tamanho, a Mistral AI projetou o modelo para inferência em um único nó, enfatizando a capacidade de processamento para aplicações de longo contexto. A empresa disponibilizou o Mistral Large 2 em sua plataforma, la Plateforme, e lançou os pesos para o modelo instrutivo no HuggingFace para fins de pesquisa.

Arthur Mensch, CEO da Mistral AI, afirmou: “O Mistral Large 2 estabelece uma nova fronteira em termos de relação desempenho-custo em métricas de avaliação.” Ele destacou que a versão pré-treinada alcança uma precisão de 84,0% no MMLU, estabelecendo um novo ponto na frente de Pareto desempenho/custo para modelos abertos.

O modelo passou por um treinamento extensivo em código-fonte, aproveitando a experiência da Mistral AI com modelos anteriores focados em código. Esse enfoque resultou em um desempenho comparável ao de modelos líderes como GPT-4, Claude 3 Opus e Llama 3 405B em tarefas de codificação.

A Mistral AI também se concentrou em aprimorar as capacidades de raciocínio do modelo e reduzir as alucinações. A empresa relata um desempenho aprimorado em benchmarks matemáticos, refletindo esses esforços.

Além disso, o Mistral Large 2 foi treinado para se destacar em tarefas de seguimento de instruções e conversação, com melhorias particulares no manejo de instruções precisas e conversas longas e multi-turnos.

O lançamento do Mistral Large 2 logo após o Llama 3.1 sinaliza uma competição intensificada no espaço dos modelos de linguagem de IA. Seu desempenho em áreas especializadas como geração de código e matemática, juntamente com um forte suporte multilíngue, posiciona-o como uma opção formidável tanto para pesquisa quanto para aplicações comerciais potenciais.

À medida que os modelos de IA continuam a crescer em tamanho e capacidade, o foco da Mistral AI em eficiência e inferência em um único nó destaca uma tendência importante no equilíbrio entre desempenho e considerações práticas de implantação.

Tue, Jul 23, 2024

Mistral NeMo: Mais uma IA!

Hoje, vamos dar uma olhada em um novo competidor que está causando impacto: o Nemo da Mistral AI. Este poderoso modelo de 12 bilhões de parâmetros está chamando a atenção com suas capacidades impressionantes e seu potencial para revolucionar a interação com a IA.

O Nemo não é apenas um rosto bonito no mundo dos LLMs. Ele é construído com uma combinação única de características que o destacam:

  • Arquitetura de ponta: O Nemo possui habilidades impressionantes de raciocínio, conhecimento mundial e habilidades de codificação, especialmente considerando seu tamanho.
  • Colaboração com a Nvidia: Esta parceria resultou em um modelo que se destaca na inferência eficiente, mesmo com quantização, permitindo uma operação mais rápida e suave.
  • Versatilidade linguística: O Nemo fala fluentemente várias línguas, suportando diversos idiomas com facilidade.
  • Tokenizador avançado: Conheça o Tekken, o tokenizador eficiente que ajuda o Nemo a comprimir textos de forma mais eficaz, especialmente para codificação.
  • Ajuste fino de instruções: Este modelo é especialista em seguir instruções precisas, lidando com conversas complexas e gerando códigos de alta qualidade.

Benchmarks: O desempenho do Nemo em vários benchmarks mostra um quadro promissor:

• HellaSwag: O Nemo marca 83,5, superando o Llama 3 e o Gemma 2.
• Winograd Schema Challenge: O Nemo alcança uma pontuação de 76,8.
• NaturalQuestions: O Nemo marca 31,2.
• TriviaQA: O Nemo obtém respeitáveis 73,8.
• MMLU: O Nemo marca 68.
• OpenBookQA: O Nemo marca 60,6.
• CommonSenseQA: O Nemo marca 70,4.
• TruthfulQA: O Nemo marca 50,3.

Embora esses benchmarks sejam impressionantes, é importante notar que faltam comparações com modelos líderes como Quen 2 e DeepSeek V2.

Vamos direto ao ponto: Como o Nemo realmente se sai? Os benchmarks mostram resultados seriamente impressionantes:
• Superando a concorrência: O Nemo supera seus rivais como Llama 3 e Gemma 2 em vários métricos, demonstrando suas capacidades impressionantes.
• Potência de raciocínio: Ele constantemente se sai bem em tarefas de raciocínio, provando sua habilidade de pensar criticamente e resolver problemas.
• Campeão na geração de código: O Nemo se destaca na geração de código, até mesmo gerando código funcional para tarefas complexas como um jogo da cobrinha em Python.

O futuro do Nemo é brilhante. Ele ainda está em seus estágios iniciais, mas com o desenvolvimento contínuo e as contribuições da comunidade, tem o potencial de se tornar um dos modelos de linguagem de IA mais influentes do mundo.

Sun, Jul 21, 2024

Corrigindo o Windows do incidente Crowdstrike

Embora eu não uso Windows desde 1998, compartilho aqui as instruções para recuperar as máquinas afetadas pela atualização do Crowdstrike:

Entre no modo de segurança reiniciando o computador com a tecla SHIFT pressionada. Em seguida, após o boot, selecione a opção SOLUCIONAR PROBLEMAS “Troubleshoot”

Na tela seguinte, clique em opções avançadas, depois selecione Ativar Modo de Segurança localizado na opção configurações de inicialização. E então reinicie o computador.

Ao concluir a inicialização, agora no modo de segurança, clique com o botão direito em Iniciar, clique em Executar, digite cmd e clique em OK.

A com o terminal do Windows aberto entre na pasta CrowdStrike conforme o comando abaixo:

CD C:\Windows\System32\drivers\CrowdStrike

Agora apaguei todos os arquivos “C-00000291*.sys” seguindo a sintaxe a seguir:

del C-00000291*.sys

Pronto, agora basta reiniciar o computador.

Tue, Jul 16, 2024

MathΣtral : IA para raciocínio Matemático.

A Mistral AI apresentou o MathΣtral, um modelo especializado de 7B projetado para raciocínio matemático avançado e exploração científica. Lançado sob a licença Apache 2.0, o MathΣtral homenageia Arquimedes por ocasião do seu aniversário de 2311 anos este ano.

O MathΣtral é adaptado para enfrentar desafios complexos de raciocínio lógico em múltiplas etapas nas áreas de STEM. Desenvolvido em colaboração com o Projeto Numina, o modelo herda capacidades do Mistral 7B, alcançando desempenho de ponta em benchmarks padrão da indústria. Notavelmente, ele atinge 56,6% no MATH e 63,47% no MMLU, demonstrando capacidades de raciocínio superiores dentro de sua categoria de tamanho.

Benchmarks detalhados destacam as robustas melhorias de desempenho do MathΣtral com aumento do cálculo no tempo de inferência. Por exemplo, o MathΣtral 7B alcança melhorias significativas de precisão, com 68,37% no MATH através de votação majoritária e 74,59% com um modelo de recompensa forte entre 64 candidatos.

O MathΣtral está disponível para uso e adaptação imediatos usando as ferramentas da Mistral AI. Os desenvolvedores podem implantar o modelo através do mistral-inference para exploração inicial e aprimorar suas capacidades com o mistral-finetune. Os pesos do modelo são acessíveis via HuggingFace, facilitando a integração direta em projetos acadêmicos e de pesquisa.

Ao disponibilizar o MathΣtral para a comunidade científica, a Mistral AI visa promover avanços na resolução de problemas matemáticos e apoiar empreendimentos acadêmicos. Esta iniciativa destaca o compromisso da Mistral AI em promover arquiteturas de modelos especializados e suas aplicações práticas na descoberta científica.

Fonte: https://mistral.ai/news/mathstral/

Sun, Jun 30, 2024

Projeto de Lei 2338/23 impactará o futuro dos nossos filhos e netos.

O Projeto de Lei 2338/23 é de fundamental importância para o Brasil e futuro dos nossos filhos e netos, podendo beneficiar o país se implementado com maestria. No entanto, observo que a preparação necessária para isso não está sendo feita de forma adequada. Como membro ativo do Conselho Consultivo da ABRIA, membro Notável da i2Ai, e como Intel Innovator, entre outras posições, sinto-me compelido a não permanecer passivo diante desta situação. O Brasil possui grande potencial e continuarei a defender o patriotismo e a soberania nacional em face desses desafios.

A Associação Brasileira de Inteligência Artificial (ABRIA) congregou 25 organizações, que variam entre empresas, associações e entidades de classe, para assinar uma Carta Aberta à Sociedade e aos Legisladores. Esta carta destaca preocupações com o PL 2338/23, que visa regular a inteligência artificial no Brasil, e apela por mais tempo para debates e discussões. Com a promessa de mais cinco audiências públicas, nossa associação está pronta para contribuir ativamente para fomentar o desenvolvimento industrial e assegurar a proteção dos usuários, conforme detalhado aqui blog Assunto Nerd.

A tramitação apressada do PL 2.338/2023, discutida predominantemente por juristas e com pouca participação da comunidade técnica e científica especializada em IA, tem limitado a abrangência do debate, um elemento crucial para a criação de uma legislação eficaz e apropriada ao ambiente tecnológico. Esta pressa pode resultar em uma legislação que não só falha em atender às necessidades da sociedade, mas também se mostra impraticável para startups e pequenas e médias empresas, gerando um ambiente regulatório complexo e custoso.