Vitalik Buterin lança ‘pausa suave’ na computação em caso de IA arriscada repentina

Oi pessoal! Você já cansou de viver na pobreza enquanto as criptomoedas estão curtindo uma vida de luxo? Então junte-se ao nosso canal @Crypnoticias no Telegram, onde compartilhamos notícias sobre criptomoedas em português - porque quem precisa de dinheiro de verdade quando você pode nadar em Dogecoins? Venha para o lado selvagem da especulação financeira, onde o único risco é perder tudo... ou ganhar um foguete para a lua! 😂💰🚀

Junte-se ao Telegram


De acordo com o co-criador do Ethereum, Vitalik Buterin, a interrupção temporária dos recursos computacionais globais pode proporcionar tempo adicional para a humanidade se houver o risco de que uma forma avançada de inteligência artificial possa ser prejudicial.

Numa atualização do blog de 5 de janeiro, Buterin ampliou sua postagem de novembro de 2023 sobre “aceleramento defensivo” (d/acc). Ele alertou que a inteligência artificial avançada poderia potencialmente surgir dentro de apenas cinco anos, e é incerto se as consequências serão favoráveis.

Vitalik Buterin propõe que limitar temporariamente a produção de hardware de computação em grande escala pode servir como uma forma de desacelerar a progressão da IA. Isto poderia potencialmente diminuir o poder computacional global em até 99% durante cerca de 1 a 2 anos, proporcionando tempo adicional para a humanidade se preparar e se adaptar.

Um conceito avançado de inteligência artificial, referido como superinteligência, é geralmente entendido como uma entidade que supera consistentemente a inteligência humana em todas as disciplinas e domínios do conhecimento.

Um número significativo de líderes tecnológicos e cientistas expressaram preocupações em relação à IA, como evidenciado por uma carta aberta escrita em março de 2023 e assinada por mais de 2.600 pessoas. Eles levantaram preocupações sobre os perigos potenciais que representam para a sociedade e a humanidade devido aos “riscos profundamente enraizados” associados ao seu desenvolvimento.

No entanto, Buterin esclareceu que o seu artigo anterior apenas sugeria evitar tipos perigosos de inteligência suprema e agora pretendia discutir soluções potenciais para uma situação em que a IA representa riscos significativos.

No entanto, Buterin expressou a sua vontade de defender uma pausa suave do hardware apenas sob a condição de estar convencido de que é necessária uma “ação mais forte”, como a responsabilização legal. Isto implica que os indivíduos que utilizam, implementam ou criam IA podem enfrentar ações judiciais se os seus modelos causarem danos.

O indivíduo sugeriu que os planos para uma suspensão temporária do hardware de IA poderiam envolver a identificação da posição dos chips de IA e a exigência de seu registro, mas, em vez disso, propôs uma ideia em que o hardware de IA em escala industrial poderia ser equipado com um chip que apenas lhe permitisse manter funcionando se receber um conjunto de três assinaturas de organizações internacionais importantes pelo menos uma vez por semana.

Em termos mais simples, Buterin afirmou que essas assinaturas funcionariam em vários dispositivos (opcionalmente, poderíamos exigir uma prova mostrando que foram publicadas em uma blockchain). Isso significa que, uma vez autorizado, não haveria uma maneira viável de permitir que apenas um dispositivo continuasse funcionando sem autorizar simultaneamente todos os outros dispositivos.

A proposta de Buterin para o desenvolvimento tecnológico enfatiza uma estratégia cautelosa em vez dos avanços rápidos e irrestritos sugeridos pelo Aceleracionismo ou pelo Aceleracionismo Eficaz.

AI Eye: Um culto bizarro está crescendo em torno de ‘religiões’ de memecoins criadas por IA

2025-01-06 06:07