• Carregando...
ChatGPT
Com o ChatGPT, professores veem riscos de os estudantes cederem à tentação de perguntar ao robô ao invés de produzir conteúdos próprios.| Foto:

A educação pode estar à beira de uma revolução profunda. Um novo sistema de inteligência artificial tem chamado a atenção de educadores – e gerado um debate sobre como o processo de aprendizagem deve ser repensado em uma era onde a informação é onipresente e acessível a qualquer um que saiba digitar uma simples pergunta.

Já faz décadas que as empresas de tecnologia tentam desenvolver sistemas inteligentes que possam agregar informação de forma coerente diante de um simples pedido — como um ser humano faria. Agora, a ferramenta batizada de ChatGPT pode ter se aproximado disso.

O sistema, desenvolvido pela empresa americana OpenAI, surgiu em 2019. Mas foi há poucas semanas que a versão mais recente, disponível gratuitamente a qualquer usuário, foi lançada. Demorou pouco para que internautas, jornalistas, acadêmicos se perguntassem: chegou o momento em que a inteligência artificial vai ser capaz de se tornar indistinguível de um ser humano?

A ferramenta conversa em diversas línguas além do inglês, inclusive o português. O ChatGPT também sugere códigos de programação, escreve poemas e resolve problemas matemáticos.

Não por acaso, os professores foram os primeiros a notar o potencial (positivo e negativo) da inovação.

Hoje, os educadores sabem que o plágio é um risco em qualquer trabalho não presencial. Mas há formas de detectar o problema. Para cometer plágio, um aluno precisa copiar um texto que já existe, o que não é difícil de ser detectado com uma simples busca no Google ou com ferramentas desenvolvidas para detectar trechos copiados.

Já o ChatGPT permite que o conteúdo seja personalizado. E, de certa forma, existem até mesmo dúvidas sobre o que constitui plágio, já que o material produzido pela ferramenta não é uma cópia de outros textos. O ChatGPT não funciona como um simples banco de respostas pré-existentes; ele simula uma conversa com um humano e gera respostas específicas até mesmo a perguntas mais abstratas.

A reportagem fez um teste e enviou a seguinte ordem ao robô: “Escreva um texto de 30 linhas mostrando os prós e contras da proclamação da República, para ser usado em um trabalho escolar do oitavo ano.” Em segundos, a plataforma devolveu um texto bem articulado, com introdução, cinco pontos positivos, cinco pontos negativos e conclusão. Em um experimento idêntico, mas solicitando um texto para o terceiro ano do ensino médio, a resposta se tornou ligeiramente mais complexa e detalhada.

Há problemas evidentes com o ChatGPT: as respostas (especialmente em idiomas que não são o inglês) por vezes são imprecisas. Além disso, como se baseia em banco de dados pré-existentes na internet e é moderada por humanos (mais especificamente, humanos que vivem em São Francisco, na Califórnia), a plataforma por vezes exibe um certo viés progressista em assuntos como o casamento gay e ideologia de gênero.

O primeiro problema, pelo menos, deve ser resolvido em breve. A versão atual da plataforma (ChatGPT 3) possui 175 bilhões de parâmetros, ou unidades de informação. A versão seguinte, que deve ser lançada nos próximos meses, terá 100 trilhões. Além disso, outras empresas tem desenvolvido ferramentas semelhantes, o que deve aumentar o número de opções para os usuários.

Riscos e benefícios

Não é difícil prever que as ferramentas de inteligência artificial podem beneficiar os estudantes ao reduzir significativamente o tempo gasto à procura de uma determinada informação. O ChatGPT é mais eficiente do que o Google nos casos em que o aluno precisa de uma informação mais específica, e de forma mais ágil, do que o site de buscas pode oferecer.

Por outro lado, os riscos também são evidentes: em vez de aprender o conteúdo (ou de pelo menos aprender a pesquisar sobre o conteúdo), o estudante pode ceder à tentação de simplesmente perguntar ao robô.

O professor Lúcio França Teles, da Universidade de Brasília, afirma que as instituições de ensino vão precisar se adaptar. “Uma opção é de que mudem as formas de avaliação, realizando todas as atividades avaliativas presencialmente”, diz ele.

A alternativa seria autorizar o uso da ferramenta, mas adicionando exigências: “Os alunos apresentariam um trabalho escrito gerado pelo software, indicando em forma detalhada como ele foi gerado: nome do software, comandos que o estudante executou para gerar o conteúdo, o número de palavras estipulado, titulo do trabalho, tempo de criação do artigo e outros detalhes.” Além disso, o aluno revisaria o trabalho do robô, comentando, criticando e corrigindo a versão produzida pelo software. “Esta opção me parece mais provável, pois a escrita de máquina tende a ser aperfeiçoada ainda mais e será sem dúvida uma opção para aqueles que devem escrever trabalhos”, diz o professor. Ou seja: para ele, a solução será se adaptar sem rejeitar completamente as novas tecnologias, assim como aconteceu com o advento da internet.

Já o professor Luis Diniz, do Departamento de Geografia da Universidade Federal do Paraná (UFPR), prefere a primeira opção: antes mesmo que as novas ferramentas de inteligência artificial se aprimorassem, ele decidiu priorizar as avaliações presenciais. “Eu já não achava recomendável pedir trabalho escrito, ainda mais grupo, muito antes de essas tecnologias existirem. Quando eu pedia trabalho em grupo, o conteúdo tinha que ser apresentado oralmente e eu dava notas individuais”, afirma.

Para o professor, as ferramentas de inteligência artificial não vão afetar as formas de avaliação de imediato. “Desconfio que não vão mudar, pelo menos não tão cedo. Pedir trabalho em grupo reduz o tempo de correção de trabalhos. E usar programas farejadores para pegar plágio consome um certo tempo”, diz ele.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]