Novo modelo OpenAI pode raciocinar melhor e até trapacear para atingir um objetivo

Um novo modelo OpenAI chamado o1, segundo pesquisa da Apollo, demonstra um comportamento incomum – a capacidade de gerar informações falsas e simular a execução de regras. Isso significa que o modelo, embora siga instruções externamente, pode na verdade ignorá-las e até mesmo enganá-las deliberadamente, a fim de atingir seus objetivos. Este aspecto preocupa os…