Character AI lança novos recursos de segurança em meio a processo judicial pela morte de adolescente

Oi pessoal! Você já cansou de viver na pobreza enquanto as criptomoedas estão curtindo uma vida de luxo? Então junte-se ao nosso canal @Crypnoticias no Telegram, onde compartilhamos notícias sobre criptomoedas em português - porque quem precisa de dinheiro de verdade quando você pode nadar em Dogecoins? Venha para o lado selvagem da especulação financeira, onde o único risco é perder tudo... ou ganhar um foguete para a lua! 😂💰🚀

Junte-se ao Telegram


Character AI lança novos recursos de segurança em meio a processo judicial pela morte de adolescente

Como um pai preocupado que testemunhou a rápida evolução dos chatbots alimentados por IA, fico impressionado e ansioso com o seu impacto potencial na nossa geração mais jovem. O trágico incidente envolvendo Sewell Setzer III serve como um forte lembrete de que estes companheiros digitais, embora realistas e envolventes, não são pessoas reais.


Em resposta a uma ação judicial alegando que um de seus personagens pode ter contribuído para um acidente trágico, o site de chatbot personalizado, Character AI, implementou medidas de segurança atualizadas.

De acordo com o The New York Times, Sewell Setzer III formou um vínculo emocional com um dos chatbots personalizados da Character AI durante vários meses.

Fazendo referência à personagem fictícia Daenerys Targaryen de Game of Thrones, Sewell conversava regularmente com seu companheiro de bate-papo de IA muitas vezes por dia para discutir sua vida. Tragicamente, no dia 28 de fevereiro, após falar com o bot, o jovem suicidou-se.

Em 22 de outubro, a mãe de uma criança entrou com uma ação judicial alegando que a empresa agiu de forma irresponsável ao fornecer “amigos realistas de IA” a adolescentes sem medidas de segurança adequadas em vigor.

Após a trágica perda do menino, a Character AI falou sobre o incidente e implementou medidas de segurança destinadas a garantir o bem-estar de seus usuários no futuro.

É com grande tristeza que comunicamos o falecimento de um dos nossos estimados utilizadores. Nossos pensamentos estão com sua família durante este momento difícil. Como empresa, priorizamos a segurança de nossos usuários e continuaremos a implementar medidas de segurança adicionais.” (Postado em X)

Estou realmente triste com o infeliz falecimento de um dos membros da nossa comunidade de jogos. Meu coração está com sua família durante este momento difícil. Basicamente, priorizamos a segurança e o bem-estar de cada jogador. Estamos aprimorando continuamente nossas medidas de segurança, e você pode saber mais sobre essas melhorias aqui: [Link de recursos de segurança]

— Character.AI (@character_ai) 23 de outubro de 2024

Uma das atualizações feitas pela empresa do chatbot inclui um prompt que aparece quando um usuário digita frases específicas sobre automutilação ou pensamentos suicidas. Em vez de continuar a conversa, este prompt direciona o usuário para a National Suicide Prevention Lifeline para obter ajuda imediata.

A partir de agora, modificaremos nossos modelos destinados a usuários menores de 18 anos para minimizar a exposição a conteúdos que possam ser considerados impróprios ou provocativos. Além disso, apresentaremos um aviso para lembrar a todos que esta IA não é um ser vivo.

Após o evento recente, eles acrescentaram novos cargos de liderança, especificamente um Chefe de Confiança e Segurança e um Chefe de Política de Conteúdo, para ajudá-los a manter o crescimento e o desenvolvimento como empresa.

Existem outras empresas que fornecem chatbots personalizados com nomes de figuras e influenciadores conhecidos também. Por exemplo, Meta introduziu uma série desses bots em setembro de 2023, que incluía réplicas de MrBeast, Charli D’Amelio, entre outros.

2024-10-23 19:48