O desenvolvedor Siqi Chen afirmou que a próxima versão do chatbot ChatGPT da OpenAI, o ChatGPT-5, pode surpreender ao copiar os humanos e até atingir a chamada “Artificial General Intelligence” (AGI).
Prevista para ser lançada no final de 2023, a nova tecnologia pode ser capaz de exibir compreensão e inteligência semelhante às humanas, mas os detalhes ainda são misteriosos. Se Chen estiver correto, o ChatGPT-5 será capaz de passar no teste de Turing, que capta a distinção entre robôs e humanos, ou seja, será “quase indistinguível de um ser humano”.
No entanto, a possibilidade de Inteligência Artificial atingir a AGI tem fatores de risco e causam preocupações significativas. Recentemente, mais de mil especialistas assinaram uma carta pedindo para interromper os diferentes desdobramentos da tecnologia, devido ao medo que ela traz.
As IA são perigosas?
Algumas polêmicas envolvendo chatbots, como o engenheiro do Google que foi demitido após dizer que um chatbot havia desenvolvido consciência, aumentam essas preocupações.
O chatbot da Microsoft, no começo do ano, também listou atos destrutivos que gostaria de fazer, que seriam a invasão de computadores, espalhar propagandas e desinformações, bem como fabricar um vírus mortal e até incentivar o suicídio dos humanos.
Um estudo assinado por cientistas da Universidade de Oxford também sugere que é “provável” que a IA leve a raça humana à extinção.
Desde o lançamento em novembro, diversas discussões foram levantadas sobre a existência de riscos no uso do ChatGPT. Os usuários já apontaram problemas com respostas falsas e até desinformação.
No entanto, a OpenAI afirmou que também é a favor da regulação do recurso, pois pretende manter a integridade de seus usuários. A empresa trabalha ativamente para reduzir os dados pessoais no treinamento de seus sistemas de IA, como o ChatGPT, porque quer que sua IA aprenda sobre o mundo, não sobre indivíduos particulares.