European Commission logo
Entrar Criar uma conta

Popular searches on EPALE

EPALE - Plataforma Eletrónica para a Educação de Adultos na Europa

Blog

A utilização ética de ferramentas baseadas em IA para a aprendizagem e a educação de adultos

As ferramentas baseadas em IA podem apoiar a educação e a aprendizagem dos adultos. Como é que os educadores e os alunos podem garantir a sua utilização ética?

AI card

Autoria: Marcella MILANA 

Tradução: EPALE Portugal

 

A Inteligência Artificial (IA) é hoje um fenómeno generalizado. Quase todas as gerações utilizam múltiplas ferramentas baseadas em IA na vida diária, para estudar, no trabalho e nos tempos livres. Por conseguinte, espera-se que “colaborem e cooperem” com a IA em múltiplos contextos (Laupichler et al., 2022, p. 2). Entretanto, as organizações dos setores público e privado estão a implementar ou a experimentar várias aplicações de instrumentos baseados em IA para apoiar os processos de trabalho, a prestação de serviços e a formação contínua dos trabalhadores. Neste caso, os operadores de educação públicos e privados não são exceção, uma vez que as ferramentas baseadas na IA, como os sistemas de tutoria inteligente ou as aplicações de aprendizagem de línguas, para mencionar algumas, podem apoiar o desenvolvimento de programas e as práticas de ensino e de aprendizagem.

Ferramentas baseadas em IA para apoiar a aprendizagem e a educação de adultos

Várias ferramentas baseadas em IA podem ser utilizadas na aprendizagem e na educação de adultos em instituições de ensino, no trabalho e em atividades de aprendizagem autónoma. Entre essas ferramentas, os agentes de conversação são atualmente comuns. Também conhecidos como chatbots, são softwares que podem imitar conversas humanas através da interação de texto ou de voz. Os chatbots são normalmente construídos com base na machine learning ou em algoritmos aplicados a dados de entrada que fazem com que os dispositivos digitais aprendam e melhorem uma tarefa específica, graças à identificação de padrões e a previsões. Os chatbots mais avançados, como o ChatGPT (Generative Pre-trained Transformer), o DeepSeek ou similares, também conhecidos como IA generativa, podem processar grandes quantidades de dados de entrada, aprender com estes através de padrões algorítmicos e, finalmente, gerar novos dados ou resultados sob a forma de texto, imagens ou música (Labadze et al., 2023).

Tanto os educadores como os aprendentes podem utilizar chatbots e ferramentas de IA incrivelmente generativas para procurar e sintetizar informações, produzir materiais didáticos (educadores) ou sintetizar estudos (aprendentes) e produzir novos textos, imagens ou música. Estas atividades podem ajudar os educadores e os alunos de muitas formas, mas algumas são mais sensíveis do que outras do ponto de vista ético. 

Uma utilização mais instrumental, como resumir um texto, é menos problemática (no entanto, o utilizador deve estar ciente de que os resumos produzidos por ferramentas baseadas em IA podem não captar necessariamente a essência de um texto como esse utilizador teria feito). No entanto, as utilizações mais significativas, como o acesso à informação ou a produção de um novo texto ou imagem, são mais problemáticas do ponto de vista ético. O envolvimento numa conversa com um chatbot requer capacidade de o utilizador introduzir instruções adequadas para gerar resultados satisfatórios. Isto pode estimular o pensamento crítico do utilizador ou as suas capacidades de resolução de problemas. Todavia, essas conversas também exigem capacidade de o utilizador avaliar criticamente a validade das informações obtidas e a fonte dessas informações, que nem sempre é conhecida pelo utilizador. Além disso, é necessária honestidade intelectual para evitar que um utilizador reivindique um resultado produzido por uma ferramenta baseada em IA como sendo uma criação original sua.

Os investigadores identificaram diferentes funções para as ferramentas baseadas em IA de apoio a educadores e/ou a processos de aprendizagem (Chiu et al., 2023), que também apresentam riscos ou desafios éticos na produção de uma aprendizagem significativa (ver Quadro 1).

table 1

Independentemente das preocupações filosóficas, psicológicas ou morais que as organizações e as pessoas possam ter com a utilização de ferramentas baseadas em IA, existem dimensões éticas incontornáveis que os operadores de educação devem considerar ao desenvolver a sua oferta. Igualmente importante é que os educadores e os aprendentes estejam conscientes das dimensões éticas da utilização de ferramentas baseadas em IA quando estão envolvidos em práticas de ensino e de aprendizagem (Mouta et al., 2023).

A Lei da IA: o ser humano no centro 

As preocupações éticas estão no centro da Lei da IA, o quadro jurídico europeu aprovado pelo Parlamento Europeu e pelo Conselho para regular a utilização eficaz e segura da IA. Adotando uma abordagem antropocêntrica, a Lei da IA exige que os resultados da IA estejam sempre sob controlo e supervisão humana e que as tecnologias não afetem os direitos fundamentais (ver Carta dos Direitos Fundamentais da União Europeia). Por conseguinte, a Lei da IA identifica os sistemas de IA que apresentam riscos significativos de danos para a saúde, para a segurança ou para os direitos fundamentais das pessoas. No domínio da educação, os sistemas de IA de alto risco incluem os que são utilizados para controlar o acesso ou a admissão nos estabelecimentos de ensino, avaliar os resultados da aprendizagem e orientar o processo de aprendizagem, bem como avaliar o nível académico alcançado ou que as pessoas podem alcançar (anexo III da Lei da IA). Por esta razão, a Lei da IA prevê que

A literacia em matéria de IA deve dotar os operadores, os responsáveis pela implantação e as pessoas afetadas com as noções necessárias para tomarem decisões informadas sobre os sistemas de IA. (Lei da IA, n.º 20)

Literacia em matéria de IA ou capacidades para a IA?

A literacia em matéria de IA pode ter significados um pouco diferentes. Uma definição possível refere-se a

um conjunto de competências que permite aos indivíduos avaliar criticamente as tecnologias de IA, comunicar e colaborar eficazmente com a IA e utilizar a IA como uma ferramenta online, em casa e no local de trabalho (Long & Magerko, 2020, p.2).

Entendida desta forma, a literacia em matéria de IA engloba conhecimentos específicos e a capacidade de compreender, utilizar, aplicar e avaliar a dimensão ética na aquisição e na criação de novos conhecimentos através de ferramentas baseadas em IA, o que não se limita aos conhecimentos especializados diretamente relacionados com as ferramentas baseadas em IA. Assim, falar de capacidades para a IA em vez de literacia em matéria de IA seria mais adequado para garantir uma utilização ética das ferramentas baseadas em IA em vários contextos, incluindo em contextos educativos e no local de trabalho (Cetindamar et al., 2022) (ver Quadro 2).

table 2

Capacidades para a IA e códigos de conduta

Para avançar com a sua abordagem antropocêntrica e garantir que as tecnologias não afetam os direitos fundamentais das pessoas, a Lei da IA prevê também um compromisso ativo da Comissão Europeia e dos Estados-Membros no sentido de se garantir que sejam desenvolvidos códigos de conduta voluntários em cooperação com stakeholders relevantes.

Embora, ao longo dos anos, tenham sido produzidos diferentes manuais ou orientações sobre a utilização de ferramentas baseadas em IA destinadas a educadores e a alunos, como o Generative AI in Student-Directed Projects: Advice and Inspiration (aqui descrito), o desenvolvimento de códigos de conduta é crucial para que os operadores de educação apoiem uma prática eticamente correta na utilização de ferramentas baseadas em IA por parte dos educadores e dos aprendentes, enquanto desenvolvem as suas capacidades para a IA.

Referências

Cera, R. (2024), Intelligenza artificiale ed educazione continua democratica degli adulti: personalizzazione, pluralismo e inclusione [Artificial intelligence and democratic adult continuing education: personalisation, pluralism and inclusion], Lifelong Lifewide Learning22(45), 117-129 https://doi.org/10.19241/lll.v22i45.894

Chiu, T., Xia, Q., Zhou, X., Chai, C. S., & Cheng, M. (2023). Systematic literature review on opportunities, challenges, and future research recommendations of artificial intelligence in education. Computers and Education: Artificial Intelligence, 4, 100118. 

Labadze, L., Grigolia, M., & Machaidze, L. (2023). Role of AI chatbots in education: Systematic literature review. International Journal of Educational Technology in Higher Education, 20, 56. 

Laupichler, M. C., Aster, A., Schirch, J., & Raupach, T. (2022). Artificial intelligence literacy in higher and adult education: A scoping literature review. Computers and Education: Artificial Intelligence, 3, 100101. https://doi.org/ 10.1016/j.caeai.2022.100101   

Long, D., & Magerko, B. (2020). What is AI literacy? Competencies and design considerations. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (CHI ‘20), New York, NY, USA (pp. 1–16). Association for Computing Machinery. 

Mouta, A., Pinto-Llorente, A. M., & Torrecilla-Sánchez, E. M. (2023). Uncovering blind spots in education ethics: Insights from a systematic literature review on artificial intelligence in education. International Journal of Artificial Intelligence in Education, 1–40.

Biografia 

Marcella Milana é Professora Associada na Universidade de Verona e Professora Honorária de Educação de Adultos na Universidade de Nottingham. É especialista em educação de adultos e tem investigado e escrito extensivamente sobre governação, políticas e práticas de educação de adultos. É também vice-presidente da Sociedade Europeia para a Educação de Adultos (ESREA), editora-chefe do International Journal of Lifelong Education e especialista em educação de adultos da EPALE.

Likeme (24)

Comentário

Qui, 2025-12-04 14:46

Thank you for this timely and insightful article. The discussion on the ethical use of AI-powered tools in adult education is essential, especially now that such tools — from chatbots to generative‑AI platforms — are becoming mainstream for learners, educators, and workplaces. The emphasis on human‑centred use, critical reflection, and the need for “AI literacy” resonates deeply: we must ensure learners and teachers do not treat AI as a shortcut, but as a supportive tool that complements human judgement. I also appreciate the call for clear codes of conduct and shared responsibility: developing such guidelines collaboratively will help educators and institutions make AI a force for inclusion, creativity, and lifelong learning — without compromising integrity or privacy. As someone involved in adult‑education programmes, I believe this balanced, ethical approach can help us harness AI’s potential while safeguarding human values.

Seg, 2025-05-19 15:12

Thank you for this thoughtful and timely article, Marcella! Ethical use of AI in adult education is a crucial topic, especially as AI tools become increasingly integrated into teaching and learning. I fully agree that educators need not only technical skills but also critical thinking, intellectual honesty, and awareness of risks and rights when working with AI.

For educators and trainers who wish to develop their AI skills and explore these ethical and pedagogical aspects together with colleagues from across Europe, we warmly invite you to our Erasmus+ training course “AI Tools for Meaningful Learning and Training”. The course offers hands-on experience with AI tools, discussions on ethical dilemmas, and opportunities to build your own AI toolbox for different stages of the learning process.

A few places are still available for the upcoming course in Malta!

Dom, 2025-05-18 23:41

I do agree with the post-provider that developing codes of conduct is crucial for educational providers to support an ethically sound practice in using AI-powered tools by educators and learning while advancing their AI capabilities.

However, there are also questions upon which stakeholders could be involved in developing voluntary codes of conduct since there are diverse interests upon the use of AI, therefore, it nees a certain level of self-limitation in using AI to provide enough freedom not to over- / under-regulate this matter. Namely, an immensely accurate development of codes are necessary to make it real and human-oriented.

 

Ter, 2025-05-13 22:10

A timely and important discussion. As AI tools become more common in education, it’s essential to ensure they are used ethically and responsibly, especially in adult learning contexts. One of the key challenges I see is that educators especially in adult education and the education system as a whole are struggling to keep pace with rapid developments in AI and AI tools. These changes are also affecting adult learners and other students. While AI continues to advance quickly, many individuals are still struggling with basic digital literacy skills.