5.1 Reconnaître les enjeux éthiques de l’IA

2. Vers une utilisation éthique de l'IA

2.5. Risques et dangers de l'IA par domaine d'application

Poursuivons notre exploration pour approfondir notre compréhension des enjeux associés à l'IA. Ci-dessous, vous trouverez un tableau qui répertorie différents domaines impactés par l'IA et l'automatisation. Pour chaque domaine, nous avons illustré un exemple de risques et de dangers, identifié une problématique spécifique et proposé une solution potentielle. Ce tableau a été intentionnellement simplifié pour éviter une surcharge d'informations et rendre son contenu plus accessible. Nous avons choisi de ne pas aborder les questions éthiques ici, car elles seront abordés dans le prochain chapitre, afin de maintenir la clarté et l'accessibilité de cette présentation.[25][30]

Tableau 3 : Risques et dangers de l'IA et de l'automatisation

Domaine Risques et dangers Exemples de problématiques rencontrées Solutions potentielles
Santé[26] Amélioration des diagnostics1, risque d'erreurs et de biais. Les algorithmes de diagnostic IA, bien qu'innovants, montrent des taux d'erreur variés selon les populations, révélant des biais dans l'apprentissage dus à des ensembles de données non représentatifs, ce qui peut entraîner des diagnostics incorrects et affecter la qualité des soins pour certains groupes démographiques.[30] Validation rigoureuse des algorithmes, formation éthique, supervision de l'IA par des professionnels.
Éducation[28] Personnalisation de l'apprentissage, inégalités d'accès.[30] Des élèves dans des régions moins développées ou avec un accès limité à internet et à la technologie sont laissés pour compte par les systèmes d'apprentissage en ligne basés sur l'IA, creusant le fossé éducatif.[30] Développement d'infrastructures digitales inclusives.
Environnement[29] Surveillance et protection de l'environnement, dépense énergétique de l'IA. L'intelligence artificielle joue un rôle crucial dans la surveillance de la déforestation, mais son impact environnemental soulève des préoccupations. En effet, sa consommation énergétique élevée, en particulier lors de l'entraînement de modèles complexes, augmente considérablement son empreinte carbone, ce qui remet en question son utilité dans la lutte contre le changement climatique. De plus, l'extraction de métaux rares nécessaires à la fabrication des infrastructures d'IA, comme les serveurs et les microprocesseurs, peut entraîner une contamination des sols et des eaux, ajoutant une dimension écologique problématique à l'utilisation de l'IA.[30]
Optimisation de l'efficacité énergétique des data centers et création de modèles d'IA moins énergivore.
Automatisation et emploi[27] Obsolescence de certaines compétences et métiers, perte d'emplois. L'automatisation des caisses dans les supermarchés réduit le besoin de caissiers.[30] Développement de programmes de formation et de reconversion professionnelle.
Sécurité et vulnérabilités[27] Compromission de la sécurité nationale, sûreté publique, confidentialité des données. Attaques de rançongiciel sur des hôpitaux ou des écoles. Standards de sécurité renforcés, audits réguliers par des entreprises externes.
Contrôle et autonomie des machines[27] Décisions ou actions imprévues par l'IA dans des contextes critiques. Un véhicule autonome impliqué dans un accident mortel alors qu'il aurait pu être évité.[30] Cadres réglementaires, systèmes de surveillance.

1 Note : Dans la colonne « Risques et dangers », vous remarquerez certains points qui peuvent sembler très positifs à première vue. Cependant, ce qui est positif peut aussi avoir un côté négatif. Par exemple, l'« Amélioration des diagnostics » dans le domaine de la santé est généralement bénéfique, mais cela peut également entraîner des faux négatifs ou des faux positifs pour les groupes minoritaires pour lesquels l'IA n'a pas été suffisamment entraînée. En conséquence, ces améliorations profitent principalement aux groupes majoritaires, ce qui pourrait accentuer les inégalités entre différentes classes de personnes, constituant ainsi un réel risque.