Anthropic e OpenAI se unem ao AI Safety Institute dos EUA para garantir o futuro da IA

Oi pessoal! Você já cansou de viver na pobreza enquanto as criptomoedas estão curtindo uma vida de luxo? Então junte-se ao nosso canal @Crypnoticias no Telegram, onde compartilhamos notícias sobre criptomoedas em português - porque quem precisa de dinheiro de verdade quando você pode nadar em Dogecoins? Venha para o lado selvagem da especulação financeira, onde o único risco é perder tudo... ou ganhar um foguete para a lua! 😂💰🚀

Junte-se ao Telegram


Como analista experiente com anos de experiência no setor tecnológico, considero estes desenvolvimentos recentes na investigação em segurança da IA ​​extremamente promissores. A colaboração entre o Instituto de Segurança de Inteligência Artificial dos EUA e empresas líderes como a Anthropic e a OpenAI é uma prova do crescente reconhecimento de que a segurança deve ser uma prioridade máxima no desenvolvimento de sistemas avançados de IA.

A filial do Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio dos EUA, conhecida como Instituto de Segurança de Inteligência Artificial dos EUA, revelou parcerias colaborativas. Essas parcerias, solidificadas por meio de Memorandos de Entendimento (MOUs), são com duas empresas proeminentes de IA, a Anthropic e a OpenAI. O objetivo destas alianças é proporcionar acesso fácil aos seus mais recentes modelos de IA, permitindo ao instituto realizar avaliações abrangentes, tanto pré como pós-lançamento, garantindo a segurança destes modelos uma vez tornados públicos.

Através de Memorandos de Entendimento (MOUs), o Instituto de Segurança de Inteligência Artificial dos EUA unirá forças com a Anthropic e a OpenAI para projetos de pesquisa conjuntos, destinados principalmente a avaliar as habilidades da IA ​​e identificar potenciais riscos de segurança. Prevê-se que esta parceria impulsione metodologias para enfrentar os riscos associados a tecnologias sofisticadas de IA. Elizabeth Kelly, chefe do Instituto de Segurança de IA dos EUA, destacou a importância da segurança no progresso tecnológico e expressou entusiasmo com as futuras colaborações técnicas com essas empresas de IA. Ela destacou que estes acordos marcam um avanço significativo nos esforços contínuos do instituto para garantir o desenvolvimento responsável da IA.

Além dessas colaborações, o American Artificial Intelligence Safety Institute planeja oferecer sugestões para melhorar a segurança nos modelos Antrópico e OpenAI. Este trabalho será realizado em estreita cooperação com o Instituto de Segurança de Inteligência Artificial do Reino Unido, simbolizando uma iniciativa global que visa promover avanços seguros e confiáveis ​​na tecnologia de IA.

O trabalho realizado pelo AI Safety Institute dos EUA baseia-se na extensa experiência do NIST na promoção do progresso na ciência, tecnologia e padronização de medição. Estas avaliações colaborativas reforçarão os esforços mais amplos de IA do NIST, que coincidem com a Ordem Executiva sobre IA da administração Biden-Harris. O objetivo é facilitar a criação de sistemas de IA seguros e fiáveis, estendendo-se aos compromissos assumidos pelos principais inovadores da IA ​​à administração relativamente ao seu desenvolvimento responsável.

Com base no relatório da Reuters, os legisladores da Califórnia endossaram um controverso projeto de lei de segurança de IA na quarta-feira. Este projeto está agora nas mãos do governador Gavin Newsom, que tem até 30 de setembro para rejeitá-lo ou aprová-lo como lei. O projeto de lei exige verificações de segurança e outras medidas de proteção para modelos de IA que ultrapassem limites específicos de custo ou poder computacional. Algumas empresas tecnológicas argumentam que estes requisitos poderiam potencialmente abrandar a inovação tecnológica.

2024-08-29 23:03