3 minute read
Escreve-me aí a tese, se faz favor
A utilização de ferramentas como ‘ChatGPT’ chega ao contexto académico. Tecnologias atuais de Inteligência Artificial criam sistemas cada vez mais autónomos.
- POR FREDERICO CARDOSO -
Advertisement
AInteligência Artificial (IA), como conta Ernesto Costa, professor catedrático da Faculdade de Ciências e Tecnologia da Universidade de Coimbra (FCTUC), tem por fim o desenvolvimento de programas capazes de resolver problemas como os resolveriam pessoas reais. Estes sistemas, no fundo, imitam o raciocínio e os passos formulados no domínio cognitivo humano, aquando da realização de uma nova tarefa, elabora.
O campo surgiu nos anos cinquenta através de abordagens simbólicas, “como num jogo de xadrez em que, para cada turno, podem existir várias jogadas possíveis, cada uma com regras bem definidas”, explica o docente. Adiciona que, neste momento, os métodos principais passam por “entregar um problema ao computador para ele o aprender e resolver”.
Assim, graças a esta mudança de paradigma, as máquinas são dotadas de uma “capacidade de aprendizagem”, através de dados, experiência e interação com o ambiente, “como faz o ser humano desde a nascença”, esclarece Ernesto Costa. No entanto, para o professor catedrático, que já leciona há 47 anos, estas técnicas, apesar das soluções que trazem, continuam com muitos problemas “em aberto”.
Ernesto Costa, também investigador no Centro de Informática e Sistemas da Universidade de Coimbra (CISUC), ilustra ainda, como exemplo destas inovações, os veículos autónomos. “A tecnologia atual já permite que não sejam necessários condutores humanos”, apesar de serem levantados outros problemas, como decisões éticas e morais, expressa o mesmo. Fora essas questões, para o docente, são já “bastante perfeitos”.
Segundo Ernesto Costa, a Aprendizagem Profunda (AP), que desenha os sistemas informáticos de acordo com o funcionamento do cérebro, é “a expressão atual mais avançada da IA”. Estes modelos, de acordo com o próprio, se bem treinados, permitem a um computador “reconhecer, por exemplo, qual o tipo de animal presente numa imagem, tal como faria uma pessoa”.
O cérebro humano é uma “imensa rede composta por milhares de milhões de neurónios”, aponta o investigador. Cada um deles é sujeito a estímulos elétricos e, mediante estes, são provocadas respostas de forma a cumprir um objetivo. A AP é baseada nesta teoria, em que cada neurónio artificial “recebe sinais de entrada e, em função destas, produz sinais de saída” e categoriza o resultado, ministra Ernesto Costa.
Hugo Oliveira, docente e investigador nas mesmas instituições que Ernesto Costa, transmite que o Processamento de Linguagem Natural (PLN) abrange a capacidade de um programa informático “compreender, utilizar e responder com a língua humana”. Doutorado na área, acrescenta que esta não se prende apenas pela criação de diálogo entre computadores e pessoas, mas também é útil em áreas como a criação de imagens artificiais a partir de texto.
Os primeiros agentes conversacionais surgiram com “conjuntos de respostas e passos a seguir, consoante as perguntas do utilizador”, elucida o docente. Porém, os maiores problemas que existiam nessas máquinas eram a falta de recordação de conversas anteriores e a fraca habilidade de lidar com contextos linguísticos, adiciona.
Com o avanço tecnológico, foram desenvolvidos “agentes melhorados que já suprimem estas lacunas”, afirma o investigador. A novembro de 2022, é aberto ao público o ‘ChatGPT’, um agente conversacional que, em poucos dias, se tornou uma referência na área. Salienta ainda que a sua popularidade é notória entre estudantes que, cada vez mais, utilizam esta ferramenta. Apesar do elevado desempenho, a sua utilização deve ser “ponderada”, visto que o modelo “não é perfeito, mas é convincente nas suas respostas”, que podem estar erradas, explica Hugo Oliveira. A complexidade do sistema, indica o investigador, torna “difícil, ou até mesmo impossível” a compreensão das suas tomadas de decisão. Outro problema que aponta é o facto de o agente utilizar, como treino, o conteúdo disponível na internet, que “pode conter opiniões extremistas e discriminações raciais ou de género”.
Sobre a sua aplicação no ensino, o docente apresenta vantagens como “poder orientar um estudante que não saiba por onde começar”, ou o aperfeiçoamento de textos. Em contraste com o motor de busca da ‘Google’, o investigador avisa que o ‘ChatGPT’ não dá referências corretas nas suas respostas, o que torna a informação “menos confiável”.
Já Ernesto Costa concorda que esta tecnologia pode ser um “auxiliar razoável para o estudo”, apesar de alertar que, para o desenvolvimento de trabalhos para as disciplinas, este “não conhece o contexto de ensino”. O professor, que se vai reformar no final deste semestre, receia a sua “má utilização” e os riscos inerentes ao plágio e à escrita de documentos sem uma autoria própria.