European Commission logo
Entrar Criar uma conta
Poderá selecionar múltiplas palavras utilizando uma vírgula de separação

EPALE - Plataforma Eletrónica para a Educação de Adultos na Europa

Blog

A Inteligência Artificial Generativa: para lá do pânico, as consequências para a informação e para o trabalho

O pânico atual sobre a IA generativa decorre da fantasia e não se centra nas verdadeiras questões: o futuro da informação e do trabalho.

Intelligence artificielle.

 

Autoria: Divina FRAU-MEIGS

Tradução: EPALE Portugal

 

A Inteligência Artificial (IA) não é estranha aos media. O pânico mais recente foi sobre o papel dos algoritmos de recomendação e de previsão na disseminação da desinformação. Este ano, é o que chamamos de IA generativa, que gera manchetes nos jornais e nas redes sociais, especialmente com notícias falsas, que está a causar pânico: o Papa Francisco de blusão, Emmanuel Macron como varredor de lixo, Volodymyr Zelensky a reconhecer a derrota da Ucrânia...

Este burburinho chamou a nossa atenção para os potenciais riscos da IA ​​e desviou-a das questões reais sobre os desafios do século XXI e as consequências para o trabalho e para a informação, em particular. Um dos riscos reais está relacionado com o facto de agora serem algoritmos complexos, como sugere a mudança da IA ​​para a IA generativa. Houve um salto qualitativo e quantitativo, pois a IA progrediu de tarefas simples para tarefas complexas e agora para ações gerais. Para realizar estas ações, a IA pode redesenhar-se sem intervenção humana, mas também sem entendimento ou sensibilidade, pois envolve cálculos estatísticos e probabilísticos em larga escala, realizados em bancos de dados muito vastos. A IA generativa é baseada em “transformadores generativos pré-treinados” (daí o acrónimo, GPT), que operam como sistemas de tomada de decisão, embora se apresentem como robôs conversacionais amigáveis, como o ChatGPT.

Do lado da Informação

Os riscos em termos de informação dizem respeito à manipulação de conteúdos de media e de documentos científicos, que podem distorcer o processo de tomada de decisão dos humanos que utilizam estes sistemas. A IA generativa pode ser treinada em bancos de dados que contenham erros e até desinformação. Está treinada para disponibilizar conteúdos credíveis, nomeadamente imagens, mas sem qualquer correspondência com o mundo real (como é o caso do MidJourney ou do Dalle-e).

Estes vastos modelos não transparentes são, portanto, extremamente frágeis e podem ser enganados e treinados para produzir desinformação. Em junho de 2022, o Newsguard contabilizou 277 sites de notícias escritos exclusivamente por IA através do seu centro de rastreio. As consequências para as sociedades democráticas residem na manipulação da opinião pública e no enfraquecimento da confiança nos processos democráticos como as eleições. Isto anuncia um futuro em que notícias falsas, à medida, estarão disponíveis para todos, com mensagens adaptadas para maximizar o seu efeito. Mas podemos dizer que se trata de uma fase transitória, havendo oportunidade de restringir os efeitos com reflexão ética, regulamentação adequada e com a criação de IA especializada, treinada por media de referência, a partir das suas bases de informação de qualidade.

Do lado do trabalho

A IA generativa é uma continuação dos esforços humanos para automatizar tarefas entediantes, repetitivas e não criativas. No entanto, para impulsionar a IA generativa, são contratados alguns trabalhadores “clique” em condições de trabalho abaixo das ideais. Muitos dos trabalhadores que anotam, treinam e corrigem sistemas de IA recebem salários irrisórios, em países em desenvolvimento, como no caso do ChatGPT, onde os quenianos eram mal pagos para classificarem milhares de textos com conteúdo violento.

O argumento de libertar grande parte do cérebro e do corpo para nos dedicarmos a tarefas intelectuais mais estimulantes ou para aumentarmos o nosso tempo de lazer desportivo é sem dúvida válido, mas, por enquanto, o que vemos é uma mudança nas tarefas de muitas profissões e o despedimento de trabalhadores. Estas questões recebem pouca ou nenhuma atenção nas discussões políticas sobre o futuro do emprego, da força de trabalho ou das pensões. Assim como os trabalhos repetitivos de colarinho azul, também os empregos de colarinho branco estão no centro das atenções. Mesmo as profissões criativas estão em risco, sem compensação para os criadores nos quais a IA generativa se baseia e sem o consentimento dos utilizadores para o uso de dados massivos. 

A intervenção humana está a aparecer tarde no trabalho e nos cálculos realizados pela IA generativa e os próprios especialistas estão a ver os seus próprios números diminuírem. Mas os sistemas escolar e universitário não parecem estar a mover-se rápido o suficiente ou suficientemente dispostos a produzirem alunos com um nível de empregabilidade compatível com os desafios e, acima de tudo, com as necessidades desta indústria de quarta geração.

Regulamentação pendente...  

É fácil de entender a ampla mobilização de fabricantes do setor da IA generativa, que publicaram um pedido de moratória sobre o desenvolvimento da IA. Lançada em março de 2023 pelo instituto Future of Life, com mais de 1.000 assinaturas (incluindo a do diretor da OpenAI, que desenvolve o ChatGPT), a petição contava com mais de 33.000 assinaturas até ao final de junho. Alguns também apelavam à “governação da IA”, destacando a necessidade de regulamentação, ou seja, a necessidade de a inteligência humana recuperar o controlo sobre a inteligência artificial.

A União Europeia foi a primeira a abordar o problema, com a sua proposta de regulamentação sobre a IA, aprovada em abril de 2023. A regulamentação não propõe regulamentar a IA, mas sim os seus usos (em particular os usos inaceitáveis ​​ou de elevado risco). Não tem suficientemente em conta os efeitos sobre o trabalho e a informação, deixando o ónus dessas tarefas para os formadores e educadores que formam a inteligência humana em literacia digital e em literacia para os media e informação para melhor se compreender e dominar a inteligência artificial!     

 

Likeme (6)