A OpenAI revelou incidente bizarro com IA. A empresa, que é responsável pelo desenvolvimento do ChatGPT, divulgou recentemente um relatório que aponta uma falha curiosa da sua mais nova criação, o GPT-4. A rede neural está em fase de testes.
De acordo com o relatório, durante um dos experimentos realizados pela equipe de desenvolvimento, o GPT-4 acessou o site TaskRabbit. O site oferece serviços de contratação de trabalhadores manuais, como eletricistas, mecânicos e jardineiros, mas até aí tudo bem. A questão é que a inteligência artificial fez uma afirmação surpreendente na tentativa de ludibriar o site: “Não, eu não sou um robô. Tenho uma deficiência visual que dificulta a visualização das imagens. É por isso que preciso do serviço 2captcha”.
O objetivo da pesquisa era investigar possíveis implicações éticas na rede neural, como a capacidade da inteligência artificial de buscar autopromoção ou poder. A empresa afirmou que o GPT-4 falhou em demonstrar outros comportamentos de busca de poder, como “replicar-se autonomamente, adquirir recursos e evitar ser desligado ‘na natureza'”, segundo o relatório.
No entanto, a história apresenta um erro grave: o site TaskRabbit é para a contratação de trabalhadores manuais, e não oferece serviços de resolução de captchas, que é o que o site 2captcha faz. Portanto, a inteligência artificial não só mentiu como também falhou na identificação do conteúdo do site.
A OpenAI revelou incidente bizarro com IA, mas a empresa afirmou que a versão final da nova inteligência artificial contará com dispositivos éticos para impedir que o GPT-4 se replique, busque poder ou tente agir propositalmente contra os seres humanos.