A atualização mais recente do OpenAI permite essencialmente que os usuários transmitam ao vivo com ChatGPT

Como um investidor experiente em criptografia e entusiasta de tecnologia, devo admitir que o recente anúncio da OpenAI sobre seu mais recente modelo de IA, GPT-4o, me deixou totalmente cativado. A capacidade de um modelo de IA processar entradas de texto, áudio e imagem em tempo real é realmente uma virada de jogo.


Oi pessoal! Você já cansou de viver na pobreza enquanto as criptomoedas estão curtindo uma vida de luxo? Então junte-se ao nosso canal @Crypnoticias no Telegram, onde compartilhamos notícias sobre criptomoedas em português - porque quem precisa de dinheiro de verdade quando você pode nadar em Dogecoins? Venha para o lado selvagem da especulação financeira, onde o único risco é perder tudo... ou ganhar um foguete para a lua! 😂💰🚀

Junte-se ao Telegram



OpenAI, os criadores do ChatGPT, revelaram seu mais novo modelo de inteligência artificial (IA), denominado GPT-4o. Esta IA avançada foi projetada para envolver-se em mais trocas conversacionais e imitar as interações humanas com maior precisão. Além disso, está equipado com a capacidade de processar e reagir às entradas de áudio e vídeo dos utilizadores em tempo real.

O GPT-4 Omni, demonstrado por meio de um conjunto de lançamentos da empresa, auxilia possíveis usuários de diversas maneiras. Por exemplo, ajuda na preparação para entrevistas, garantindo que os usuários pareçam polidos e prontos para as entrevistas. Além disso, facilita o contato com o suporte ao cliente para garantir a substituição de um novo iPhone.

🚨 URGENTE: Dólar x Real em ALTA HISTÓRICA! Veja a previsão CHOCANTE!

Confira agora!

Em várias demonstrações, o ChatGPT foi mostrado como capaz de trocar trocadilhos amigáveis ​​com o pai, traduzir instantaneamente diálogos bilíngues em situações da vida real, agir como um árbitro imparcial para jogos de pedra-papel-tesoura entre dois usuários e empregar sarcasmo quando provocado. Além disso, uma exposição apresentou pela primeira vez a interação entre o ChatGPT e o novo cachorrinho de um usuário.

“Bem, olá, Bowser! Você não é simplesmente uma coisinha mais adorável?” o chatbot exclamou.

Olá, tenho o prazer de apresentar o GPT-40, nosso mais recente modelo avançado. Como analista, estou entusiasmado em compartilhar que este nosso novo carro-chefe é capaz de processar informações de áudio, visão e texto simultaneamente em tempo real. A partir de hoje, entradas de texto e imagem estão disponíveis através de nossa API e ChatGPT. Num futuro próximo, os recursos de voz e vídeo também serão integrados para uma experiência de usuário mais abrangente.

— OpenAI (@OpenAI) 13 de maio de 2024

Como investidor em criptografia, não posso deixar de ficar pasmo quando uso tecnologia avançada de IA. É como se eu tivesse entrado num filme de ficção científica – as capacidades desta tecnologia ainda são difíceis de acreditar, embora seja uma realidade tangível. Isso foi expresso de forma eloquente por Sam Altman, o CEO, em sua postagem no blog de 13 de maio.

“Chegar a tempos de resposta e expressividade de nível humano acaba sendo uma grande mudança.”

Em 13 de maio, a OpenAI introduziu uma variante somente de texto e imagem. A edição completa está programada para lançamento em um futuro próximo, acrescentaram eles em um post recente no X.

Como pesquisador que estuda modelos avançados de inteligência artificial, posso dizer que o GPT-40 deverá ser acessível a todos os usuários do ChatGPT, incluindo aqueles com contas gratuitas. Essa acessibilidade será facilitada através da Interface de Programação de Aplicativo (API) do ChatGPT.

Aprendi com a OpenAI que o “o” no GPT-4o representa o termo “omni”, significando um avanço em direção a interfaces homem-computador mais orgânicas e realistas.

Conheça o GPT-40, nossa inovação mais recente, capaz de processar entradas de texto, áudio e vídeo em tempo real para raciocínio avançado. Sua versatilidade torna sua exploração envolvente e representa o progresso em direção a interações humano-IA e até mesmo IA-AI mais realistas.

— Greg Brockman (@gdb) 13 de maio de 2024

A capacidade do GPT-4 de lidar com entradas de texto, áudio e imagem simultaneamente representa um salto significativo em comparação com ferramentas anteriores da OpenAI, como ChatGPT-4. Em termos mais simples, embora o ChatGPT-4 possa ter dificuldades para lidar com múltiplas tarefas e perder informações valiosas no processo, o GPT-4 é adepto do gerenciamento de todos os três tipos de entrada de uma só vez.

Como pesquisador que estuda modelos de linguagem avançados, posso compartilhar que a OpenAI supostamente alegou superioridade para o GPT-4 no domínio da visão e compreensão de áudio em comparação com os modelos anteriores. Esse aprimoramento vai além da simples entrada de texto, permitindo a identificação das emoções do usuário e até mesmo de sinais sutis, como padrões de respiração.

Também é “muito mais rápido” e “50% mais barato” que o GPT-4 Turbo na API da OpenAI.

De acordo com a OpenAI, a mais recente tecnologia de IA é capaz de processar comandos de áudio em apenas 2,3 segundos, em média, e esse tempo de resposta é normalmente em torno de 3,2 segundos – uma velocidade comparável à conversa humana normal.

2024-05-14 03:40