A OpenAI anunciou hoje a disponibilidade geral do GPT-4 , seu mais recente modelo de geração de texto, por meio de sua API.
A partir desta tarde, todos os desenvolvedores existentes da API OpenAI “com histórico de pagamentos bem-sucedidos” podem acessar o GPT-4. A empresa planeja abrir o acesso a novos desenvolvedores até o final deste mês e, a partir daí, começar a aumentar os limites de disponibilidade “dependendo da disponibilidade de computação”.
“Milhões de desenvolvedores solicitaram acesso à API GPT-4 desde março, e a variedade de produtos inovadores que utilizam o GPT-4 está crescendo a cada dia”, escreveu a OpenAI em um post de blog. “Prevemos um futuro onde os modelos baseados em chat podem suportar qualquer caso de uso.”
O GPT-4 pode gerar texto (incluindo código) e aceitar entradas de imagem e texto – uma melhoria em relação ao GPT-3.5, seu antecessor, que aceitava apenas texto – e funciona em “nível humano” em vários benchmarks profissionais e acadêmicos. Como os modelos GPT anteriores da OpenAI, o GPT-4 foi treinado usando dados disponíveis publicamente, inclusive de páginas da Web públicas, bem como dados licenciados pela OpenAI.
A capacidade de compreensão da imagem ainda não está disponível para todos os clientes da OpenAI. A OpenAI está testando com um único parceiro, Be My Eyes, para começar. Mas não indicou quando o abrirá para uma base de clientes mais ampla.
Vale a pena notar que, como acontece até mesmo com os melhores modelos de IA generativa de hoje, o GPT-4 não é perfeito. Ele “alucina” fatos e comete erros de raciocínio, às vezes com confiança. E não aprende com sua experiência, falhando em problemas difíceis, como a introdução de vulnerabilidades de segurança no código que gera.
No futuro, a OpenAI diz que permitirá aos desenvolvedores ajustar GPT-4 e GPT-3.5 Turbo, um de seus outros modelos de geração de texto recentes, mas menos capazes (e um dos modelos originais do ChatGPT), com seus próprios dados, como há muito tempo é possível com vários outros modelos de geração de texto do OpenAI. Essa capacidade deve chegar ainda este ano, de acordo com a OpenAI.
Desde a revelação do GPT-4 em março, a competição de IA generativa ficou mais acirrada. Recentemente, a Anthropic expandiu a janela de contexto paraclaudio— seu principal modelo de IA de geração de texto, ainda em pré-visualização — de 9.000 tokens para 100.000 tokens. (Janela de contexto refere-se ao texto que o modelo considera antes de gerar texto adicional, enquanto tokens representam texto bruto — por exemplo, a palavra “fantástico” seria dividida em tokens “fan”, “tas” e “tic”.)
GPT-4 segurou a coroa anterior em termos de janela de contexto, pesando 32.000 tokens no topo. De um modo geral, os modelos com pequenas janelas de contexto tendem a “esquecer” o conteúdo até mesmo de conversas muito recentes, levando-os a desviar-se do assunto.
Em um anúncio relacionado hoje, a OpenAI disse que está disponibilizando suas APIs DALL-E 2 e Whisper –DALL-E 2 sendo o modelo de geração de imagens da OpenAI e “Sussurrar” referindo-se ao modelo de fala para texto da empresa. A empresa também disse que planeja substituir os modelos antigos disponíveis por meio de sua API para “otimizar [sua] capacidade de computação”. (Nos últimos meses, em grande parte graças ao popularidade explosiva do ChatGPT, o OpenAI lutou para acompanhar a demanda por seus modelos generativos.)
A partir de 4 de janeiro de 2024, alguns modelos OpenAI mais antigos – especificamente GPT-3 e seus derivados – não estarão mais disponíveis e serão substituídos por novos modelos “base GPT-3” que se presumiria serem mais eficientes em computação. Os desenvolvedores que usam os modelos antigos terão que atualizar manualmente suas integrações até 4 de janeiro, e aqueles que desejam continuar usando modelos antigos ajustados depois de 4 de janeiro precisarão ajustar as substituições nos novos modelos básicos GPT-3.
“Forneceremos suporte aos usuários que ajustaram modelos anteriormente para tornar essa transição o mais suave possível”, escreveu a OpenAI. “Nas próximas semanas, entraremos em contato com os desenvolvedores que usaram recentemente esses modelos mais antigos e forneceremos mais informações assim que os novos modelos de conclusão estiverem prontos para testes iniciais”.