Algumas semanas após o início do segundo ano de faculdade, Leigh Burrell recebeu uma notificação que a deixou com um nó no estômago. Ela havia recebido zero em uma tarefa que valia 15% da sua nota final em um curso obrigatório de redação.
Em uma breve explicação, seu professor disse acreditar que ela havia terceirizado a composição de seu trabalho – uma carta de apresentação fictícia – para um chatbot de inteligência artificial. “Meu coração simplesmente parou”, disse Burrell, 23 anos, estudante de ciência da computação na Universidade de Houston-Downtown.
O trabalho da estudante não havia sido feito por um chatbot. De acordo com o histórico de edição do Google Docs, consultado pelo The New York Times, o texto havia sido redigido e revisado ao longo de dois dias. Mesmo assim foi marcado pela empresa de detecção de plágio Turnitin em seu serviço para identificar textos gerados por inteligência artificial.

Desesperada, Leigh recorreu da decisão. Sua nota foi restaurada após o envio de um PDF de 15 páginas com capturas de tela e notas do seu processo de escrita para o chefe do departamento de inglês.
Ainda assim, o episódio deixou a estudante dolorosamente consciente dos perigos de ser estudante – mesmo sendo honesto – em um panorama acadêmico distorcido pela inteligência artificial.
Ferramentas de IA generativa, incluindo o ChatGPT, estão remodelando a educação para os estudantes que as utilizam. De acordo com uma pesquisa da Pew Research realizada no ano ado, 26% dos adolescentes relataram que usaram o ChatGPT para trabalhos escolares, o dobro da taxa do ano anterior.
O uso de chatbots de IA por estudantes para realizar tarefas escolares fez com que os professores buscassem soluções às pressas. Mas o espectro do mau uso da IA e os sistemas imperfeitos usados para detectá-lo também podem estar afetando estudantes que estão seguindo as regras.
Em entrevistas, estudantes do ensino médio, da faculdade e de pós-graduação descreveram uma ansiedade persistente diante da hipótese de serem injustamente acusados de usar IA em trabalhos – e enfrentaram consequências acadêmicas devastadoras.
Em resposta, muitos estudantes impam métodos de autovigilância que mais se parecem com autopreservação. Algumas gravam suas telas por horas enquanto fazem seus trabalhos escolares. Outras fazem questão de compor trabalhos de aula usando apenas aceleração de texto que rastreiam seus toques no teclado o suficiente para produzir um histórico de edição detalhada.
Leia também
Quando Leigh precisou fazer uma tarefa para a disciplina na qual havia sido acusada de usar IA, ela carregou um vídeo de 93 minutos no YouTube documentando seu processo de escrita. Era desagradável, disse ela, mas necessário para sua paz de espírito. “Eu estava tão frustrada e paranoica que minha nota iria sofrer por causa de algo que eu não fiz”, disse ela.
O medo desses estudantes é confirmado por pesquisas reportadas no The Washington Post e na Bloomberg Businessweek indicando que softwares de detecção de IA, uma indústria em expansão nos últimos anos, muitas vezes identificam erroneamente trabalhos como se tivessem sido gerados por IA.
Um novo estudo de uma dúzia de serviços de detecção de IA por pesquisadores da Universidade de Maryland descobriu que eles marcaram erroneamente textos escritos por humanos como gerados por IA em cerca de 6,8% das vezes, em média.
“De acordo com nossa análise, os detectores atuais não estão prontos para serem usados na prática em escolas para detectar plágio de IA”, disse Soheil Feizi, um dos autores do estudo e professor associado de ciência da computação em Maryland.
A Turnitin, que não foi incluída na análise, afirmou em 2023 que seu software marcava erroneamente frases escritas por humanos cerca de 4% das vezes. Um programa de detecção da OpenAI, que tinha uma taxa de falsos positivos de 9%, segundo a empresa, foi descontinuado após seis meses. A Turnitin não respondeu aos pedidos de comentário para este artigo, mas disse que suas recomendações não deveriam ser usadas como o único determinante de mau uso da IA.
“Não podemos mitigar completamente o risco de falsos positivos, dada a natureza da escrita e análise de IA, então é importante que os educadores usem a pontuação de IA para iniciar um diálogo significativo e impactante com seus estudantes nestas instâncias”, escreveu Annie Chechitelli, diretora de produtos da Turnitin, em uma postagem de blog em 2023.
Alguns estudantes estão se mobilizando contra o uso de ferramentas de detecção de IA, argumentando que o risco de penalizar alunos inocentes é muito grande. Mais de 1.000 pessoas am uma petição online iniciada por Kelsey Auman no mês ado, uma das primeiras do tipo, que pede à Universidade de Buffalo, em Nova York, que desative seu serviço de detecção de IA.
Um mês antes de se formar no programa de mestrado em saúde pública da universidade, Auman foi informada por um professor que três de suas tarefas haviam sido sinalizadas pelo Turnitin. Ela entrou em contato com outros membros do curso de 20 pessoas, e cinco disseram que receberam mensagens semelhantes, ela lembrou em uma entrevista recente. Dois disseram que suas formaturas foram adiadas.
Auman, 29, estava com medo de não se formar. Ela havia concluído seus estudos de graduação bem antes do ChatGPT chegar aos campi, e nunca lhe ocorreu estocar evidências caso fosse acusada de trapacear usando IA generativa.
“Você simplesmente assume que se fizer seu trabalho, ficará bem — até que não fica”, disse ela.
Auman disse que estava preocupada que o software de detecção de IA punisse os alunos cujos textos estivessem fora das “normas algorítmicas” por razões que não tinham nada a ver com inteligência artificial. Em um estudo de 2023, pesquisadores da Universidade de Stanford descobriram que os serviços de detecção de IA tinham maior probabilidade de classificar incorretamente o trabalho de alunos que não eram falantes nativos de inglês. (Turnitin contestou essas descobertas.)
Depois que Auman se encontrou com seu professor e trocou longos e-mails com o Escritório de Integridade Acadêmica da escola, ela foi notificada de que se formaria conforme o planejado, sem nenhuma acusação de desonestidade acadêmica.
“Estou muito feliz por estar me formando”, disse ela. “Não consigo imaginar viver com esse sentimento de medo pelo resto da minha carreira acadêmica.”
John Della Contrada, porta-voz da Universidade de Buffalo, disse que a escola não estava considerando descontinuar o uso do serviço de detecção de IA do Turnitin em resposta à petição.
“Para garantir a justiça, a universidade não depende apenas de software de detecção de IA ao julgar casos de suposta desonestidade acadêmica”, escreveu ele em um e-mail, acrescentando que a universidade garante o devido processo legal para os alunos acusados, o direito de apelar e opções de reparação para infratores primários. (A escola de Burrell, a Universidade de Houston-Downtown, alerta os membros do corpo docente que os detectores de plágio, incluindo o Turnitin, “são inconsistentes e podem ser facilmente mal utilizados”, mas ainda os disponibiliza.)
Outras escolas determinaram que o software de detecção causa mais problemas do que compensa: a Universidade da Califórnia, Berkeley; Vanderbilt; e Georgetown citaram preocupações com confiabilidade em suas decisões de desabilitar o recurso de detecção de IA do Turnitin.
“Embora reconheçamos que a detecção de IA pode dar tranquilidade a alguns instrutores, percebemos que a dependência excessiva da tecnologia pode prejudicar mais do que ajudar o relacionamento entre aluno e instrutor”, escreveu Jenae Cohn, diretora executiva do Centro de Ensino e Aprendizagem da UC Berkeley, em um e-mail.

Sydney Gill, uma estudante de 18 anos do último ano do ensino médio em São Francisco, disse que apreciava o fato de os professores estarem em uma posição extremamente difícil quando se tratava de navegar em um ambiente acadêmico confuso pela IA. Ela acrescentou que havia questionado sua escrita desde que uma redação que ela inscreveu em um concurso de redação no final de 2023 foi erroneamente marcada como gerada por IA.
Essa ansiedade persistiu enquanto ela escrevia as redações para inscrição na faculdade este ano. “Não quero dizer que isso mudou minha vida, mas definitivamente mudou a maneira como abordarei todos os meus escritos no futuro”, disse ela.
Em 2023, Kathryn Mayo, professora do Cosumnes River College em Sacramento, Califórnia, começou a usar ferramentas de detecção de IA do Copyleaks e do Scribbr em redações de alunos em suas aulas de história da fotografia e teoria da fotografia. Ela ficou aliviada, a princípio, ao encontrar o que esperava ser uma solução simples para um momento complexo e frustrante para os professores.
Então, ela executou alguns de seus próprios textos no serviço e foi notificada de que eles tinham sido parcialmente gerados usando IA. “Fiquei muito envergonhada”, disse ela.
Desde então, ela mudou alguns dos seus prompts de tarefas para torná-los mais pessoais, o que ela espera que torne mais difícil para os alunos terceirizá-los para o ChatGPT. Ela tenta envolver qualquer aluno que ela suspeite seriamente de estar usando IA de forma incorreta em uma conversa gentil sobre o processo de escrita.
Às vezes, os alunos item timidamente que colam, ela disse. Outras vezes, eles simplesmente abandonam a aula.
Este artigo foi publicado originalmente no The New York Times.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.