OpenAI atingida por reclamação de privacidade na Áustria, potencial violação da lei da UE

Oi pessoal! Você já cansou de viver na pobreza enquanto as criptomoedas estão curtindo uma vida de luxo? Então junte-se ao nosso canal @Crypnoticias no Telegram, onde compartilhamos notícias sobre criptomoedas em português - porque quem precisa de dinheiro de verdade quando você pode nadar em Dogecoins? Venha para o lado selvagem da especulação financeira, onde o único risco é perder tudo... ou ganhar um foguete para a lua! 😂💰🚀

Junte-se ao Telegram


OpenAI, um desenvolvedor líder de inteligência artificial (IA), está sob investigação pelas autoridades austríacas de proteção de dados após uma reclamação de privacidade apresentada por Noyb, um grupo de defesa dos direitos de dados. A reclamação alega que o chatbot de IA generativo da OpenAI, ChatGPT, forneceu informações falsas sobre uma figura pública quando solicitado a fornecer detalhes sobre ela.


A OpenAI, uma conhecida empresa de desenvolvimento de inteligência artificial (IA), é agora o foco de uma reclamação de privacidade apresentada contra ela por uma organização austríaca de defesa da proteção de dados.

No dia 29 de abril, Noyb apresentou uma queixa contra a OpenAI, alegando que eles não conseguiram corrigir dados imprecisos fornecidos pelo seu chatbot, ChatGPT. A organização expressou preocupação de que estas ações, ou omissão de ação, possam violar os regulamentos de privacidade na União Europeia.

Com base no relatório, um indivíduo conhecido, cuja identidade permanece não revelada, solicitou fatos sobre si mesmo ao chatbot da OpenAI, mas recebeu informações imprecisas repetidamente.

A OpenAI supostamente recusou a petição da figura pública para modificar ou excluir os dados, explicando que tais ações estavam além de suas capacidades. Além disso, mantiveram sigilo quanto às especificidades de seu conjunto de dados de treinamento e sua origem.

Maartje de Graaf, advogado de proteção de dados da Noyb, comentou o caso em um comunicado dizendo:

“Se um sistema não consegue produzir resultados precisos e transparentes, não pode ser usado para gerar dados sobre indivíduos. A tecnologia tem que seguir os requisitos legais, e não o contrário.”

Noyb apresentou uma queixa à autoridade austríaca de proteção de dados, pedindo-lhes que analisassem o tratamento de dados e os procedimentos da OpenAI para garantir a precisão das informações pessoais utilizadas pelos seus grandes modelos de linguagem.

De acordo com De Graaf, é evidente que as empresas atuais lutam para garantir a conformidade com a legislação da UE para chatbots como o ChatGPT ao lidar com dados pessoais.

Como pesquisador focado em direitos digitais, eu descreveria o Noyb – também reconhecido como Centro Europeu de Direitos Digitais – como uma organização com sede em Viena, Áustria. A nossa missão é liderar ações jurídicas estratégicas e campanhas mediáticas que reforcem as leis europeias do Regulamento Geral de Proteção de Dados (RGPD).

Já observei antes que os chatbots atraíram críticas tanto de ativistas como de investigadores na Europa.

I. No inverno de 2023, duas entidades europeias sem fins lucrativos publicaram um relatório indicando que o renovado chatbot Bing AI da Microsoft, renomeado como Copilot, tinha difundido informações erradas ou enganosas sobre as eleições locais na Alemanha e na Suíça durante as eleições políticas.

Como pesquisador diligente, me deparei com algumas preocupações quanto à precisão das informações fornecidas pelo chatbot. Em termos de informações sobre candidatos, resultados de sondagens, escândalos e dados eleitorais, houve casos em que as respostas não estavam alinhadas com os factos. Além disso, em certas ocasiões, as fontes citadas foram citadas incorretamente ou tiradas do contexto.

Como investidor criptográfico, deparei-me com situações fora da UE que merecem ser mencionadas. Um desses casos envolveu o chatbot Gemini AI do Google. Este bot estava gerando imagens inadequadas e imprecisas em seu gerador de imagens. Fiquei surpreso e decepcionado com essa reviravolta. O Google reconheceu o problema e pediu desculpas, garantindo-nos que atualizariam seu modelo para evitar ocorrências semelhantes no futuro.

2024-04-29 10:54