Elon Musk se junta a Vitalik Buterin no desenvolvimento de IA crucial

Oi pessoal! Você já cansou de viver na pobreza enquanto as criptomoedas estão curtindo uma vida de luxo? Então junte-se ao nosso canal @Crypnoticias no Telegram, onde compartilhamos notícias sobre criptomoedas em português - porque quem precisa de dinheiro de verdade quando você pode nadar em Dogecoins? Venha para o lado selvagem da especulação financeira, onde o único risco é perder tudo... ou ganhar um foguete para a lua! 😂💰🚀

Junte-se ao Telegram


Como investigador experiente que testemunhou o rápido avanço da IA ​​durante mais de duas décadas, encontro-me numa encruzilhada entre o entusiasmo e a preocupação. Os benefícios potenciais da IA ​​são inegáveis, mas os riscos que ela representa não podem ser ignorados.

O progresso da inteligência artificial (IA) tem sido notável, com o ChatGPT da OpenAI e grandes empresas como a Apple aderindo à tendência. Parece que estamos vivenciando um boom de IA. No entanto, é crucial lembrar que “com grandes poderes vêm grandes responsabilidades”, uma mensagem enfatizada em vários filmes do Homem-Aranha.

Em todo o mundo, prevê-se que o uso crescente da Inteligência Artificial acarrete riscos substanciais para as pessoas em todo o mundo. Como resultado, figuras influentes como Elon Musk e Vitalik Buterin têm falado ativamente sobre a necessidade de regulamentos de IA para mitigar estes perigos globais. Musk, que dirige uma empresa de IA chamada X.AI Corp., apoia o desenvolvimento desta tecnologia ao mesmo tempo que defende a supervisão da indústria.

Necessidade de regulamentos de IA

A Califórnia propôs um projeto de lei, SB 1047, que visa abordar os perigos e riscos potenciais associados à inteligência artificial. Se for promulgada, esta legislação poderá impor maior responsabilidade aos criadores de modelos de IA que investem mais de 100 milhões de dólares, exigindo-lhes que adiram a determinados protocolos de segurança, incluindo testes de segurança dos seus modelos antes da implantação.

É uma decisão desafiadora e pode gerar polêmica, mas, considerando todos os fatores, acredito que seja apropriado que a Califórnia promulgue a legislação de segurança de IA SB 1047. Por mais de duas décadas, tenho defendido o controle da IA, da mesma forma que regulamentamos qualquer produto ou tecnologia que possa representar um risco.

— Elon Musk (@elonmusk) 26 de agosto de 2024

Em resposta a este evento recente, o CEO da Tesla, Elon Musk, acessou o Twitter, instando a Califórnia a aprovar o projeto de lei SB 1047. Apesar de reconhecer que a sua posição pode irritar algumas pessoas, Musk tem falado abertamente sobre a necessidade de regulamentações sobre IA há mais de duas décadas. Sendo uma figura proeminente no mundo da tecnologia, ele acredita que a indústria deve enfrentar uma regulamentação semelhante a outros sectores relacionados com a tecnologia, para mitigar potenciais riscos.

As preocupações de Vitalik Buterin

Em resposta ao tweet de Elon Musk, o fundador da Ethereum, Vitalik Buterin, discutiu a importância de regulamentar o setor de IA. No entanto, ele expressou reservas sobre a eficácia destes regulamentos propostos. Buterin ponderou se o projeto de lei SB 1047 seria empregado para atingir modelos de código aberto e pré-treinados destinados a desenvolvimento posterior.

Parece que a indicação mais forte que aponta para o objectivo do projecto de lei é o seu requisito anterior, que entra em conflito com os pesos em aberto, mas este requisito foi agora eliminado. Além disso, alguns especialistas em segurança de IA demonstraram seu apoio a…

— vitalik.eth (@VitalikButerin) 27 de agosto de 2024

O criador do Ethereum apoia a disposição de “dano crítico” do projeto de lei. Ele interpreta o SB 1047 como uma tentativa de estabelecer protocolos de testes de segurança. Em essência, isto significa que se os desenvolvedores ou empresas descobrirem potenciais riscos ou comportamentos prejudiciais à escala global nos seus modelos, serão impedidos de os implementar.

2024-08-27 15:27