A OpenAI anunciou nesta semana, o lançamento do GPT-4, a versão mais recente de seu modelo de inteligência artificial e um salto da tecnologia que alimenta seu popular ChatGPT. Aqui está o que você precisa saber sobre a mudança:
No lançamento, o GPT-4 estará acessível aos usuários que se inscreverem no serviço de assinatura de US$ 20 (R$ 106,22) por mês da OpenAI, o ChatGPT Plus, enquanto os usuários gratuitos continuarão a receber respostas geradas pelo modelo GPT-3.5, o modelo mais antigo.
A OpenAI descreve o GPT-4 como mais “confiável, criativo e capaz de lidar com instruções muito mais sutis” em comparação com seu antecessor.
Um salto que o GPT-4 dá é sua capacidade de analisar imagens. Em um exemplo do OpenAI, o modelo de linguagem vê uma imagem cheia de ingredientes culinários, por exemplo, pergunta o que pode ser feito com eles e responde com várias opções de receitas.
O GPT-4 também é um avanço em relação ao seu antecessor quando se trata de contextualizar e resumir grandes volumes de texto e pode apontar imprecisões em um resumo escrito por uma pessoa.
Ele supera confortavelmente a maioria dos testes em comparação ao seu antecessor, pontuando no 93º percentil para os testes SAT de leitura e escrita e 99º percentil no Uniform Bar Exam, acima dos resultados de 87º e 10º percentis do GPT-3.5.
Embora não sejam perfeitas, as habilidades de raciocínio do GPT-4 também são mais capazes de analisar quebra-cabeças e oferecer uma resposta mais precisa.
O principal recurso do GPT-4 – sua capacidade de analisar e responder a imagens – não estará disponível para os usuários no lançamento em meio a preocupações de que possa haver abuso. De acordo com o Washington Post, o recurso está sendo retido enquanto a empresa tenta entender os riscos potenciais associados a ele. A OpenAI diz que está trabalhando em “salvaguardas” para garantir que não possa ser usada para reconhecimento facial e vigilância de indivíduos particulares.
O GPT-4 não está imune a um problema que afeta quase todos os modelos de aprendizado de idiomas: a “alucinação”. Isso acontece quando um modelo de linguagem gera informações completamente falsas sem qualquer aviso, às vezes ocorrendo no meio de um texto preciso. A OpenAI reconhece isso, observando que o GPT-4 “ainda não é totalmente confiável” e adverte que precauções como revisão humana devem ser tomadas ao usar o modelo de linguagem em “contextos de alto risco”.
Além do ChatGPT Plus, o GPT-4 foi integrado a vários outros produtos, como o aplicativo de aprendizado de idiomas Duolingo, a plataforma educacional Khan Academy e o processador de pagamentos Stripe. O usuário mais proeminente é o mecanismo de busca Bing da Microsoft, que usa uma versão do GPT-4 “personalizada para pesquisa” há várias semanas. O Duolingo lançou um novo nível de assinatura chamado Duolingo Max, que custa US$ 29,99 (R$ 159,27) por mês e oferece um tutor com tecnologia GPT-4 para usuários que falam inglês aprendendo espanhol ou francês.
Interesse em IA
O interesse em chatbots com inteligência artificial aumentou desde que a OpenAI lançou seu serviço ao público em novembro do ano passado. A tecnologia, no entanto, saltou para o mainstream no mês passado, depois que a Microsoft anunciou que havia feito parceria para integrar seu chatbot ao mecanismo de busca da gigante da tecnologia, o Bing.
A implementação da tecnologia OpenAI pelo Bing usando dados de pesquisa em tempo real atraiu o mercado, com análises sugerindo que o mecanismo de pesquisa da Microsoft com tecnologia IA pode ser a primeira ameaça séria ao domínio de pesquisa do Google em anos.
Desde então, o Google se apressou em anunciar o Bard, sua resposta à OpenAI e ao chatbot da Microsoft, embora a empresa ainda não tenha divulgado uma data de lançamento para o público em geral. Espera-se também que a gigante chinesa de buscas Baidu revele seu próprio chatbot de IA Ernie na quinta-feira, embora haja preocupações de que possa ser menos impressionante do que a última oferta da OpenAI.
Em meio à empolgação, alguns especialistas alertaram que os modelos de linguagem AI e os chatbots alimentados por eles ainda têm grandes falhas, podem facilmente apresentar informações imprecisas como se fossem fatos e também ser manipulados.
Fonte: Forbes
Discussão sobre post