O que é isso do ChatGPT? Neste momento podemos descrevê-lo como um protótipo de chatbot desenvolvido pela OpenAI, um grande modelo de linguagem (LLM) a usar uma enorme soma de dados. Não é o primeiro chatbot de acesso livre, mas é seguramente aquele que marca uma viragem na disseminação deste tipo de ferramenta por ser o oposto do violino de Ingres: tudo o que faz, desde gerar código python até ensaios sobre os mais variados temas, faz bem. Se fosse humano, dir-se-ia “tem jeito”. Mas não o sendo, a disponibilização livre da sua capacidade geradora sem qualquer salvaguarda de eventuais consequências ignora várias das considerações éticas da União Europeia para uma Inteligência Artificial confiável e responsável. Não está aqui em causa limitar a inovação, está em causa promover, novamente, um processo inverso em que se experimenta primeiro e se definem políticas ediretrizesdepois, já em reação às consequências, as quais irão inevitavelmente decorrer da utilização massiva desde o seu lançamento em novembro.
Para testar o ChatGPT basta criar uma conta e começar a experiência. Tanto se pode fazer uma questão, como solicitar que escreva código numa linguagem de programação. Este modelo de IA, ou chatbot, gera conteúdo de uma forma semelhante à desenvolvida por seres humanos, incluindo o preditivo. Mas sabemos também que o ChatGPT não tem a capacidade de verificar a veracidade do conteúdo produzido, apesar de ter a habilidade de forçar a sua credibilidade mesmo que enviesada.
Testámos o chat com várias questões abertas sobre eventos históricos, noções filosóficas, políticas e jurídicas, teorias e experiências científicas, movimentos artísticos, cuidados médicos e de saúde. As respostas têm, invariavelmente, uma estrutura bem conseguida, apresentando várias perspetivas de um modo descritivo. Não é só à vista desarmada que parecem escritas por humanos, justificando-se, portanto, o receio de ser um meio usado para substituir um processo de reflexão e composição original.
O estudo Machine Generated Text: A Comprehensive Survey of Threat Models and Detection Methods demonstra-nos como é que o abuso dos modelos de Geração de Linguagem Natural (NLG) está a multiplicar o impacto social negativo (e não só) com o aparecimento de casos de utilização abusiva ou nociva. A questão que se coloca é: qual o motivo pelo qual não temos órgãos de comunicação social (e outros intervenientes) a promover uma análise cuidada sobre as medidas que mitigam o abuso dos sistemas de IA? Vamos falar sobre o modo como o ChatGPT pode ser uma ferramenta para detetar, ou promover, ataques de cibersegurança? Sobre o possível escalonamento de notícias falsas? Sobre as formas de identificar e prevenir eventuais fraudes académicas? Sobre maneiras criativas de tentar aproveitar esta ferramenta em contexto pedagógico? Sobre quais os tipos de impacto que trará para o exercício de diversas profissões, desde o ensino até à engenharia informática?
Como tem sido usual, parece que apenas é relevante aquilo que se torna viral, o que é ‘trendy’ e, por isso mesmo, potencialmente alvo de investimentos financeiros. Isto parece demonstrar três coisas: somos um país pobre, com fraca literacia digital e no qual é fácil comprar a atenção social através da produção de notícias que se apoia em termos como: “capital”; “milhões”; “investidores”. Como diria o Paulo Leminski: “Não fosse isso e era menos. Não fosse tanto e era quase.”.
Autoras: Lia Neves e Teresa Forte