Aller au contenu

Les personnes peuvent se rendre en toute sécurité à la destination souhaitée en suivant les règles de circulation et les codes de conduite convenus sans nécessairement savoir comment fonctionne le moteur de la voiture. Maintenant, appliquons la même analogie lorsque nous pensons à la manière dont les gens interagissent avec les systèmes d’IA, tels que les assistants numériques utilisant la reconnaissance vocale, ou les algorithmes qui nous guident vers le prochain film que nous regarderons.

La nouvelle mise à jour de DigComp 2.2 vise à donner aux utilisateurs des connaissances de base sur ce que font les systèmes d’IA et ce qu’ils ne font pas, et introduit certains principes de base à garder à l’esprit lors de l’interaction avec les systèmes d’IA. Cela peut aider les citoyens à devenir des utilisateurs plus confiants, critiques et pourtant ouverts d’esprit des technologies actuelles, tout en contribuant à atténuer les risques liés à la sécurité, aux données à caractère personnel et à la vie privée.
 

L'IA est partout, mais en sommes-nous conscients? 

De nombreuses technologies de tous les jours utilisent et intègrent un certain type d'intelligence artificielle. Par exemple, l'IA peut être utilisée pour traduire les commandes vocales en une action concrète – comme passer un appel ou allumer les lumières. Souvent, les gens ne savent pas que ces systèmes collectent des données à caractère personnel sur l’utilisateur et ses actions, et ils ne réalisent pas comment ces données peuvent être utilisées à une multitude de fins (par exemple, la formation de nouveaux algorithmes d’IA, le partage de données avec des tiers). Cela apporte naturellement une gamme de préoccupations en matière de vie privée ou de sécurité.

La mise à jour DigComp 2.2 comprend une annexe avec plus de 70 exemples qui peuvent aider les gens à mieux comprendre où et dans quelles situations de leur vie quotidienne ils peuvent s'attendre à rencontrer des systèmes d'IA. Il donne également des exemples pratiques de la façon dont les technologies émergentes ont imprégné notre vie quotidienne. 
 

Comment DigComp 2.2 peut-il nous aider à comprendre les systèmes d'IA? 

Trois types d’exemples sont donnés dans cette dernière mise à jour du cadre pour aider à comprendre ce que font les systèmes d’IA – et ce qu’ils ne font pas: 

  • Les exemples de connaissances se concentrent sur les faits, les principes et les pratiques. S'engager avec les systèmes d'IA de manière confiante et sûre signifie être conscient de la façon dont les moteurs de recherche, les médias sociaux et les plateformes de contenu utilisent les algorithmes d'IA pour générer des réponses adaptées aux préférences de l'utilisateur individuel (ce numéro vous aide à le trouver dans la publication: AI 03, page 78).
  • Exemples de compétences axées sur la capacité d'appliquer les connaissances lors de l'interaction avec les systèmes d'IA. Cela signifie savoir comment modifier les configurations des utilisateurs (par exemple dans les applications, les logiciels, les plates-formes numériques) pour activer, empêcher ou modérer le système d'IA de suivre, collecter ou analyser des données (par exemple, désactiver le suivi de localisation sur nos téléphones, etc.). (AI 35, page 80.) 
  • Lesexemples d'attitude sont liés à l'action et au contrôle humains et indiquent une disposition ou un état d'esprit à agir. Cela signifie être ouvert aux systèmes d’IA qui aident les êtres humains à prendre des décisions éclairées conformément à leurs objectifs (par exemple, l’utilisateur décide activement de donner suite ou non à une recommandation). 

Tous les exemples sont liés aux compétences existantes de DigComp avec l'idée qu'ils aideront les concepteurs de programmes éducatifs et les prestataires de formation à rafraîchir leur contenu de formation et à mieux illustrer l'application et l'intégration des technologies émergentes dans la vie quotidienne. 
 

Gagner la confiance pour lutter contre les fausses informations et la désinformation

Les nouveaux thèmes de la mise à jour touchent aux phénomènes actuels qui amplifient souvent la désinformation sur les plateformes de médias sociaux tels que les bulles de filtre (un biais causé par un algorithme qui limite les informations qu'un utilisateur voit en fonction de ses activités précédentes) et les chambres d'écho (une situation où les utilisateurs reçoivent des informations en ligne, ce qui renforce leurs points de vue existants sans rencontrer de perspectives opposées). Des exemples illustrent également les deep-fakes et d'autres formes automatisées de contenu généré par l'IA. 

Ils se concentrent également sur les préoccupations de confidentialité lors de l'interaction avec des systèmesd'IA qui pourraient partager des données personnelles avec des tiers et mettent à nu les questions de base que nous devons poser avant d'activer le logiciel de reconnaissance faciale ou l'assistant numérique sur notre téléphone. 

Les exemples DigComp 2.2 sur les personnes interagissant avec les systèmes d’IA visent à brosser un tableau du monde d’aujourd’hui et à aider les gens à s’engager en toute confiance, de manière critique et en toute sécurité avec les technologies quotidiennes, en particulier celles pilotées par l’IA. Un autre objectif est de donner aux citoyens les moyens de mieux maîtriser leur propre apprentissage tout au long de la vie afin qu’ils restent informés des systèmes d’IA et de ce que nous appelons «la datafication» de tous les aspects de notre vie. Enfin, l’un des objectifs est d’aider les citoyens à résoudre les questions éthiques liées aux pratiques numériques, comme celle de l’autonomie humaine, qui sous-tend bon nombre des valeurs de l’UE. Ces objectifs sous-tendent également le plan d’action en matière d’éducation numérique de la Commission européenne, qui vise à renforcer les aptitudes et les compétences numériques des citoyens en vue de la transformation numérique. 

Lisez le rapport complet ici. 

Parmi les autres travaux à venir du DEAP figurent: 

À propos de l'auteur 

Le Dr Vuorikari est l'investigateur principal de DigComp 2.2. Son travail se concentre sur le développement d'une meilleure compréhension des connaissances, des compétences et des attitudes qui aident les citoyens à s'engager en toute confiance, de manière critique et en toute sécurité avec les technologies numériques, y compris les systèmes d'IA. Elle a rejoint le Centre commun de recherche (CCR) de la Commission européenne en juillet 2013 jusqu’en août 2022. Elle est diplômée en éducation (M.Ed en 1998 en Finlande), en hypermédia (DEA en 1999 en France) et elle a obtenu son doctorat en 2009.
 

À propos du CCR

Le Centre commun de recherche est le service scientifique et de la connaissance de la Commission. Le CCR emploie des scientifiques pour mener des recherches afin de fournir des avis scientifiques indépendants et un soutien à l'UE. Le pôle scientifique de l’UE est le principal site web du JRC. 

 

©Viacheslav Iakobchuk Tous droits réservés