Oi pessoal! Você já cansou de viver na pobreza enquanto as criptomoedas estão curtindo uma vida de luxo? Então junte-se ao nosso canal @Crypnoticias no Telegram, onde compartilhamos notícias sobre criptomoedas em português - porque quem precisa de dinheiro de verdade quando você pode nadar em Dogecoins? Venha para o lado selvagem da especulação financeira, onde o único risco é perder tudo... ou ganhar um foguete para a lua! 😂💰🚀
☞ Junte-se ao Telegram
Como pesquisador que passou anos estudando a interseção entre IA, blockchain e sociedade, encontro-me constantemente refletindo sobre a observação de B.F. Skinner sobre a confiança nas máquinas. No entanto, à luz da rápida evolução dos agentes de IA, as suas palavras parecem agora quase ingénuas.
“A verdadeira questão não é se as máquinas podem pensar, mas se os humanos conseguem.” Esta declaração destaca uma verdade importante: a nossa confiança na tecnologia depende da tomada de decisões humanas. Aquilo com que deveríamos realmente nos preocupar não é com a inteligência das máquinas, mas com a sabedoria e a responsabilidade daqueles que as gerem. Embora este já tenha sido um ponto significativo, as coisas certamente mudaram com o tempo.
Como pesquisadora deste campo dinâmico, acho fascinante refletir sobre a transformação que a inteligência artificial (IA) trouxe nos últimos anos. Os insights de Skinner parecem quase antiquados quando comparados com o rápido avanço dos agentes de IA, entidades de software que podem perceber o seu ambiente e agir para atingir objetivos específicos. Estes assistentes digitais, nascidos do boom da IA do consumidor no início da década de 2020, tornaram-se parte integrante da nossa vida quotidiana, cuidando perfeitamente de tarefas que vão desde o agendamento de compromissos até à tomada de decisões de investimento, entrelaçando-se subtilmente na estrutura da nossa existência digital.
O que são agentes de IA?
Os agentes de IA se destacam distintamente dos grandes modelos de linguagem (LLMs), como o ChatGPT, por sua capacidade de ação independente. Ao contrário dos LLMs, que processam e produzem principalmente texto, os agentes de IA são projetados para perceber o que os rodeia, tomar decisões e realizar ações para atingir objetivos específicos. Ao integrar múltiplas tecnologias de IA, como processamento de linguagem natural, visão computacional e aprendizagem por reforço, esses agentes podem se adaptar e aprender com suas interações.
À medida que os agentes de IA se tornam mais comuns e avançados, surge um sentimento crescente de apreensão. Poderemos algum dia confiar completamente nesses seres digitais? Esta não é apenas uma questão teórica. Os agentes de IA funcionam em ambientes complexos, tomando decisões a partir de enormes conjuntos de dados e algoritmos sofisticados que até mesmo seus desenvolvedores acham difícil de compreender totalmente. Esta falta de transparência gera dúvidas. Quando um agente de IA sugere um tratamento médico ou prediz tendências de mercado, como podemos ter certeza sobre a lógica que orienta suas escolhas?
Confiar nos agentes de IA de maneira muito casual pode levar a graves repercussões. Por exemplo, considere um consultor financeiro de IA cometendo um erro que destruiu o mercado devido a um dado mal compreendido, ou uma IA de saúde prescrevendo tratamentos errôneos com base em informações de treinamento preconceituosas. A capacidade de causar danos não se limita a indústrias específicas; à medida que os agentes de IA penetram mais profundamente nas nossas rotinas diárias, o seu impacto multiplica-se rapidamente. Mesmo um pequeno erro pode desencadear uma reacção em cadeia, afectando aspectos que vão desde a privacidade pessoal até às economias globais.
No centro deste défice de confiança reside uma questão fundamental: a centralização. O desenvolvimento e a implantação de modelos de IA têm sido em grande parte da competência de um punhado de gigantes da tecnologia. Estes modelos centralizados de IA funcionam como caixas negras, com os seus processos de tomada de decisão ocultos do escrutínio público. Esta falta de transparência torna virtualmente impossível confiar nas suas decisões em operações de alto risco. Como podemos confiar num agente de IA para fazer escolhas críticas quando não conseguimos compreender ou verificar o seu raciocínio?
Descentralização como resposta
No entanto, existe uma solução para estas preocupações: IA descentralizada. Um paradigma que oferece um caminho para agentes de IA mais transparentes e confiáveis. Esta abordagem aproveita os pontos fortes da tecnologia blockchain e de outros sistemas descentralizados para criar modelos de IA que não são apenas poderosos, mas também responsáveis.
As ferramentas para construir confiança nos agentes de IA já existem. Blockchains podem permitir computação verificável, garantindo que as ações de IA sejam auditáveis e rastreáveis. Cada decisão tomada por um agente de IA pode ser registrada em um livro público, permitindo uma transparência sem precedentes. Ao mesmo tempo, técnicas criptográficas avançadas, como o aprendizado de máquina em ambiente de execução confiável (TeeML), podem proteger dados confidenciais e manter a integridade do modelo, alcançando transparência e privacidade.
No rápido crescimento do uso de agentes de IA ao lado ou em blockchains públicos, a ideia de confirmabilidade ganha importância. Embora os modelos convencionais de IA possam achar difícil demonstrar a autenticidade de suas operações, os agentes de IA construídos na tecnologia blockchain podem oferecer garantias criptográficas sobre seu comportamento. Esta confirmabilidade não é apenas um luxo técnico; é um pré-requisito fundamental para a confiança em cenários de alto risco.
Ambientes de Execução Confiáveis (TEEs) representam uma medida de segurança crucial na computação confidencial. Essencialmente, eles fornecem uma zona segura para cálculos de inteligência artificial, protegendo-os de perturbações externas. Isto significa que os cálculos da IA ocorrem dentro deste espaço protegido, livre de potenciais intrusões ou manipulações. Como resultado, mesmo aqueles que gerem o sistema de IA são incapazes de interferir ou monitorizar secretamente os processos de tomada de decisão do agente, aumentando assim a confiança e a segurança.
Estruturas inovadoras, como Runtime Off-chain Logic (ROFL) da Oasis Network, representam a vanguarda nesta metodologia, facilitando a combinação sem esforço de computação de IA verificável com auditabilidade e transparência na cadeia. Esses avanços ampliam os horizontes para aplicativos alimentados por IA, ao mesmo tempo que garantem a manutenção de padrões de abertura e confiança de alto nível.
Rumo a um futuro de IA confiável
Navegar por agentes de IA confiáveis não é isento de dificuldades; persistem barreiras técnicas e a adoção de sistemas de IA descentralizados em maior escala exige mudanças tanto nos métodos industriais como na perceção do público. No entanto, os benefícios podem ser profundos. Imagine um mundo onde os agentes de IA executam decisões cruciais de forma transparente, com ações que podem ser examinadas e auditadas por todos, e onde o poder da inteligência artificial está disperso entre muitos, em vez de ser monopolizado por apenas algumas empresas.
Além disso, também existe potencial para uma expansão económica substancial. Uma investigação de 2023 realizada em Pequim revelou que um aumento de 1% na integração da IA corresponde a um aumento de 14,2% na Produtividade Total dos Fatores (TFP). No entanto, muitos estudos de produtividade relacionados com a IA concentram-se principalmente em Modelos gerais de Aprendizagem de Línguas (LLMs), em vez de agentes autónomos de IA. Estes agentes de IA autónomos, capazes de executar várias tarefas de forma independente, poderão proporcionar melhorias de produtividade mais significativas. Além disso, agentes de IA fiáveis e auditáveis poderiam revelar-se ainda mais eficazes neste aspecto.
Talvez seja necessário revisar a conhecida declaração de Skinner. O desafio não é apenas se as máquinas são capazes de pensar, mas sim se podemos confiar nos seus processos de pensamento. Com a IA e o blockchain avançando em direção a um modelo descentralizado, possuímos os meios para estabelecer confiança. Contudo, a questão agora reside em saber se possuímos o discernimento para aplicar estas ferramentas com sabedoria.
Tenha em mente que as opiniões compartilhadas neste artigo pertencem exclusivamente ao redator e nem sempre podem estar alinhadas com as opiniões da CoinDesk Inc., de seus proprietários ou de partes afiliadas.
- EUR BRL PREVISÃO
- BTC PREVISÃO. BTC criptomoeda
- USD BRL PREVISÃO
- LINK PREVISÃO. LINK criptomoeda
- AVAX PREVISÃO. AVAX criptomoeda
- AAVE PREVISÃO. AAVE criptomoeda
- MEME PREVISÃO. MEME criptomoeda
- SOL PREVISÃO. SOL criptomoeda
- EUR CHF PREVISÃO
- WOO PREVISÃO. WOO criptomoeda
2024-09-30 20:27