1. Pular para o conteúdo
  2. Pular para o menu principal
  3. Ver mais sites da DW

Como funciona o ChatGPT e por que ele é polêmico

12 de janeiro de 2023

Novo sistema de chat baseado em inteligência artificial vem impressionando usuários. Mas a ferramenta também preocupa escolas e tem eficácia questionada por especialistas.

https://p.dw.com/p/4LyYS
Símbolo do ChatGPT e da empresa OpenAI
Desenvolvedora do ChatGPT, a americana OpenAI teve o atual proprietário do Twitter, Elon Musk, como cofundador, em 2015Foto: Jakub Porzycki/NurPhoto/picture alliance

O ChatGPT, um novo sistema de chat baseado em inteligência artificial (IA) , tem causado alvoroço e um debate sobre o futuro desse tipo de tecnologia na educação e em uma série de profissões.

Lançado em 30 de novembro de 2022 pela empresa americana OpenAI, o robô levou apenas alguns dias para viralizar e, em seis semanas, já foi testado por milhões de usuários.

A ferramenta, que por enquanto está em fase de testes, permite diálogos em diversos idiomas sobre praticamente qualquer assunto, de maneira aparentemente natural, com respostas para inúmeras perguntas, além da criação de conteúdo.

Se o usuário pedir à ferramenta, por exemplo, para escrever um texto sobre as causas da Guerra de Secessão nos EUA, é possível assistir em tempo real à digitação de uma persuasiva resposta – pronta em questão de segundos.

Essa é uma das razões pelas quais autoridades do setor de educação de Nova York começaram a bloquear o site desse impressionante e também controverso robô, que pode desenvolver parágrafos textuais semelhantes aos redigidos por humanos.

A decisão de restringir o acesso ao ChatGPT em dispositivos e redes internas de escolas nova-iorquinas poderá ser imitada por outras regiões dos Estados Unidos, numa tentativa de evitar que alunos recorram à ferramenta para a redação de textos.

Os criadores, inclusive, dizem que trabalham para combater e detectar o uso indevido da ferramenta.

Como funciona

O ChatGPT integra uma ampla gama de tecnologias desenvolvidas pela OpenAI, com sede em São Francisco e estreita relação com a Microsoft.

É parte de uma nova geração de sistemas de inteligência artificial capazes de conversar, redigir textos e ainda produzir vídeos e imagens a partir de um vasto banco de dados de livros digitais, publicações online e outras mídias.

No entanto, ao contrário de sistemas prévios conhecidos como "large language models" ("grandes modelos de linguagem", em tradução livre), a exemplo do GPT-3, lançado em 2020 pela mesma empresa, o ChatGPT é gratuito e está disponível para todos na internet.

Considerado mais amigável para o usuário, o sistema funciona como um diálogo escrito com quem lhe faz as perguntas.

As milhões de pessoas que já testaram o sistema o utilizaram desde para escrever poemas ou músicas até para escrever e-mails. Tudo isso tem ajudado a ferramenta a se tornar mais inteligente.

"O formato de diálogo permite ao ChatGPT responder a perguntas específicas, admitir seus erros, questionar premissas incorretas e rejeitar pedidos impróprios", divulgou a empresa, que tem como um de seus fundadores, em 2015, o atual proprietário do Twitter, Elon Musk. O empresário, no entanto, se desvinculou em 2018 da companhia, que recebeu investimentos de gigantes como a Microsoft.

Evolução

Além do GPT-3 e agora o ChatGPT, a OpenAI é conhecida também por ter criado o DALL-E, um sistema de inteligência artificial para criação de imagens a partir de descrições textuais.

Um dos motivos pelos quais a novidade é considerada mais amigável para os usuários, em comparação aos programas antecessores, é o menor número de contradições.

"Há alguns anos, os chatbots tinham o vocabulário de um dicionário e a memória de um peixe. Hoje, eles são muito melhores em reagir de forma coerente, de acordo com o histórico de buscas e respostas. São mais do que apenas peixes", afirma Sean McGregor, pesquisador que agrupa problemas relacionados à IA em um banco de dados.

No entanto, segundo especialistas, tal qual outros programas que se baseiam na chamada aprendizagem profunda ("deep learning", em inglês), o ChatGPT não consegue justificar por que selecionou determinadas palavras que compõem suas respostas.

Impressão de que ferramentas de fato pensam

Tecnologias baseadas na IA e que, em alguns casos, podem se comunicar passam cada vez mais a impressão de que de fato pensam. Recentemente, pesquisadores da empresa Meta (proprietária do Facebook) desenvolveram um programa chamado Cicero, em homenagem ao político e orador romano.

O programa foi testado por meio do jogo Diplomacy, no qual os participantes precisam mostrar habilidades de negociação. Segundo um artigo publicado em novembro passado na revista Science, o Cicero "alcançou mais do que o dobro da pontuação média dos jogadores humanos", em 40 disputas de uma liga online do jogo.

"Se você não se comunicar como uma pessoa real [durante o jogo], mostrando empatia, construindo relações e falando corretamente, não será capaz de forjar parcerias com outros participantes", afirmou a Meta em comunicado.

Em outubro, a startup Character.ai, fundada por antigos engenheiros da Google, apresentou um chatbot experimental online que pode assumir personalidades. Baseados em uma breve descrição, os usuários criam personagens e, então, podem "conversar" com um fictício Sherlock Holmes, Sócrates ou mesmo Donald Trump.

Por um lado, tamanho grau de sofisticação é fascinante. Por outro, deixa muitos observadores inquietos pelo fato de que talvez essas tecnologias estejam sendo utilizadas para enganar seres humanos, divulgando informações falsas ou criando fraudes cada vez mais críveis.

E o que o ChatGPT "pensa" sobre isso?

Questionado sobre o tema por jornalistas da agência de notícias AFP, o ChatGPT respondeu o seguinte: "Há potenciais perigos em relação à construção de chatbots supersofisticados [...]. As pessoas podem pensar que estão interagindo com uma pessoa real."

A fim de evitar possíveis abusos, as empresas de tecnologia estão colocando proteções em vigor. Em sua página inicial, a OpenAI adverte que o chatbot pode gerar "informações incorretas" ou "produzir conteúdo ofensivo ou tendencioso".

Além disso, o ChatGPT se recusa a tomar partido: "A OpenAI tornou extremamente difícil fazer com que a ferramenta expresse opiniões", diz McGregor.

O pesquisador pediu ao chatbot que escrevesse um poema sobre uma questão ética. "Sou apenas uma máquina, uma ferramenta à sua disposição / não tenho poder de julgar, não tenho poder de decisão (...)", respondeu o robô.

"É interessante ver as pessoas perguntando se os sistemas de IA devem se comportar de acordo com o desejo dos usuários ou como seus criadores previram", afirmou Sam Altman, cofundador e chefe da OpenAI. "O debate sobre quais valores dar aos sistemas vai ser um dos debates mais importantes da sociedade", acrescenta.

Janela para o futuro

De acordo com Altman, ao menos por enquanto, o ChatGPT é uma "demonstração inicial" do que será possível fazer com interfaces de linguagem baseadas em IA, destacando que, neste caso, ainda há muitas limitações.

"Em breve, você poderá ter assistentes que falarão com você, responderão a perguntas e darão conselhos. Mais tarde, você poderá ter algo que faça tarefas para você. Possivelmente, você poderá ter algo que descubra novos conhecimentos", diz Altman.

Possibilidades de uso

Entre as possibilidades que o ChatGPT oferece até o momento está a utilização como alternativa rápida a buscas no Google, embora seus resultados sejam frequentemente equivocados ou contraditórios. Entretanto, se alguém questiona uma de suas respostas erradas, o sistema é muitas vezes capaz de admitir a falha e encontrar uma solução.

Muitos usuários destacaram, no entanto, a capacidade que a ferramenta tem de ajudar com perguntas específicas: por exemplo, programadores utilizaram o ChatGPT para escrever códigos complexos ou em uma linguagem incomum, e professores universitários disseram que a ferramenta é capaz de responder adequadamente a algumas perguntas de provas.

A capacidade que esses sistemas têm de produzir textos bem escritos e coerentes também poderia permitir a sua utilização no âmbito editorial e no jornalismo, uma característica que têm levado especialistas a prever a substituição de muitas tarefas de criação de conteúdo.

gb/lf (AP, EFE, AFP, ots)