Fonte da imagem: Copiloto

O novo modelo CriticGPT da OpenAI é treinado para “criticar” os resultados do GPT-4

Publicidade

A OpenAI introduziu o CriticGPT, um novo modelo de inteligência artificial projetado para identificar erros no código gerado diretamente pelo ChatGPT. CriticGPT será usado como assistente algorítmico para testadores que revisam o código do programa produzido pelo ChatGPT.

Publicidade

Fonte da imagem: Copiloto

De acordo com um novo estudo, “LLM Critics Help Catch LLM Bugs”, publicado pela OpenAI, o novo modelo CriticGPT foi projetado como um assistente de IA para testadores especialistas que verificam o código do programa gerado pelo ChatGPT. O CriticGPT, baseado na família GPT-4 Large Language Model (LLM), analisa o código e sinaliza possíveis erros, tornando mais fácil para os codificadores detectar falhas que, de outra forma, poderiam passar despercebidas devido a erro humano. Os pesquisadores treinaram o CriticGPT em um conjunto de dados de amostras de código contendo erros introduzidos intencionalmente, ensinando-o a reconhecer e sinalizar vários erros.

Publicidade

Os cientistas descobriram que em 63% dos casos envolvendo erros LLM de ocorrência natural, os anotadores preferiram a crítica humana do CriticGPT. Além disso, as equipes que usaram o CriticGPT escreveram análises mais abrangentes do que as pessoas que não usaram o assistente de IA, enquanto a taxa de confabulações (fatos falsos e alucinações) foi reduzida.

O desenvolvimento de uma “crítica” automatizada envolveu o treinamento de um modelo em um grande número de dados de entrada com a introdução de erros intencionais. Os especialistas foram solicitados a modificar o código escrito pelo ChatGPT, introduzindo erros, e então fornecer um resultado com bugs supostamente descobertos. Esse processo permitiu que o modelo aprendesse a identificar e criticar diferentes tipos de erros no código.

Em experimentos, o CriticGPT demonstrou a capacidade de detectar bugs introduzidos e erros que ocorrem naturalmente nos resultados de resposta do ChatGPT. Os pesquisadores também criaram um novo método chamado “Force Sampling Beam Search” (FSBS) que ajuda o CriticGPT a escrever revisões de código mais detalhadas, permitindo-lhes ajustar a profundidade de suas pesquisas de problemas enquanto controlam a taxa de falsos positivos.

Curiosamente, os recursos do CriticGPT vão além da simples revisão de código. Nos experimentos, o modelo foi aplicado a um conjunto de dados de treinamento do ChatGPT que já havia sido classificado como perfeito por humanos. Surpreendentemente, o CriticGPT detectou erros em 24% dos casos, que foram posteriormente confirmados por especialistas. A OpenAI acredita que isso demonstra o potencial do modelo não apenas para trabalhar com problemas técnicos, mas também destaca sua capacidade de detectar erros sutis que podem escapar até mesmo de uma inspeção humana cuidadosa.

Apesar dos resultados promissores, o CriticGPT, como todos os modelos de IA, tem limitações. O modelo foi treinado em respostas ChatGPT relativamente curtas, o que pode não prepará-lo totalmente para avaliar as tarefas mais longas e complexas que os futuros sistemas de IA poderão enfrentar. A equipe de pesquisa reconhece que o modelo é mais eficaz na detecção de bugs que podem ser identificados em uma área específica e gargalo do código. No entanto, os erros do mundo real nos resultados da IA ​​podem muitas vezes estar espalhados por várias partes da resposta, apresentando um desafio para futuras iterações do modelo.

Além disso, embora o CriticGPT reduza a confabulação, não a elimina completamente, e os especialistas humanos ainda podem cometer erros com base nestes dados falsos.

Se você notar um erro, selecione-o com o mouse e pressione CTRL+ENTER.

Posts Similares

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *