Como analista com experiência em ética e segurança em IA, estou profundamente preocupado com os recentes desenvolvimentos na OpenAI. A demissão de membros-chave da sua equipa focada na segurança da IA, incluindo Ilya Sutskever e Jan Leike, é um sinal preocupante.
Oi pessoal! Você já cansou de viver na pobreza enquanto as criptomoedas estão curtindo uma vida de luxo? Então junte-se ao nosso canal @Crypnoticias no Telegram, onde compartilhamos notícias sobre criptomoedas em português - porque quem precisa de dinheiro de verdade quando você pode nadar em Dogecoins? Venha para o lado selvagem da especulação financeira, onde o único risco é perder tudo... ou ganhar um foguete para a lua! 😂💰🚀
☞ Junte-se ao Telegram
Todos os membros da equipa da OpenAI dedicada a abordar os riscos potenciais representados pela inteligência artificial deixaram a organização ou aparentemente juntaram-se a outras equipas de investigação.
Depois que Ilya Sutskever, cientista-chefe da OpenAI e cofundador da empresa, fez seu anúncio de saída, eu, como parte da equipe de superalinhamento da OpenAI e seu outro co-líder, Jan Leike, compartilhei no X que havia apresentado minha demissão.
Com base na declaração de Leike, ele deixou a empresa porque tinha preocupações sobre a priorização do desenvolvimento de produtos em detrimento da garantia da segurança da IA.
Como analista, eu interpretaria a perspectiva de Leike da seguinte forma: Numa sucessão de publicações, argumentei que o foco actual da OpenAI em prioridades específicas definidas pela sua liderança pode não ser a abordagem mais eficaz à medida que avançamos no desenvolvimento da Inteligência Artificial Geral (AGI). . Em vez disso, defendo fortemente a priorização da segurança e da preparação nos nossos esforços de desenvolvimento da AGI.
AGI refere-se a uma forma teórica de inteligência artificial capaz de igualar ou superar as habilidades humanas em várias tarefas.
Na OpenAI, onde Leike trabalhou durante três anos, ele expressou preocupação sobre o foco da empresa na criação de produtos atraentes em detrimento da construção de uma forte cultura e procedimentos de segurança de IA. Ele ressaltou a importância de alocar recursos, especialmente em termos de poder computacional, para reforçar os esforços essenciais de pesquisa em segurança de sua equipe, que estavam sendo negligenciados.
“…Há algum tempo que discordo da liderança da OpenAI sobre as principais prioridades da empresa, até que finalmente chegamos a um ponto de ruptura. Nos últimos meses, minha equipe tem navegado contra o vento…”
No verão passado, a OpenAI estabeleceu uma nova unidade de investigação com o objetivo de antecipar o eventual surgimento de entidades artificialmente inteligentes que poderiam ultrapassar a inteligência humana e potencialmente representar ameaças aos seus criadores. Ilya Sutskever, cientista-chefe e cofundador da OpenAI, foi nomeado um dos líderes da equipe que supervisiona este projeto, que teve acesso a 20% das capacidades computacionais da OpenAI.
Depois que vários membros da equipe deixaram o cargo, a OpenAI optou por dissolver a unidade “Superalignment” e assimilar suas responsabilidades em outros empreendimentos de pesquisa em andamento dentro da empresa. Acredita-se que esta acção resulte do processo de reestruturação de toda a organização que foi iniciado após a situação difícil de governação em Novembro de 2023.
Como pesquisador que acompanha de perto os desenvolvimentos da OpenAI, posso compartilhar que houve uma tentativa liderada por Sutskever e outros membros do conselho da OpenAI de substituir Altman como CEO em novembro do ano anterior. No entanto, esta decisão enfrentou forte oposição da equipe da OpenAI, levando Altman a ser reintegrado ao seu cargo.
Com base no relatório da The Information, Sutskever comunicou aos funcionários que a ação do conselho para demitir Sam Altman representava seu dever de garantir que a OpenAI criasse inteligência artificial geral (AGI) que atendesse aos melhores interesses da humanidade como um todo. Como um dos seus seis membros, Sutskever destacou a dedicação do conselho em alinhar os objetivos da OpenAI com o bem maior.
- EUR BRL PREVISÃO
- BTC PREVISÃO. BTC criptomoeda
- AAVE PREVISÃO. AAVE criptomoeda
- USD BRL PREVISÃO
- LTC PREVISÃO. LTC criptomoeda
- EUR CHF PREVISÃO
- SOL PREVISÃO. SOL criptomoeda
- PNUT PREVISÃO. PNUT criptomoeda
- TRB PREVISÃO. TRB criptomoeda
- USD JPY PREVISÃO
2024-05-18 14:45