Intelligence artificielle et apprentissage automatique
Qu’est-ce que l’IA et l’AM ?
L’intelligence artificielle (IA) est un domaine de l’informatique qui vise à résoudre les problèmes cognitifs généralement associés à l’intelligence humaine, tels que l’apprentissage, la résolution de problèmes et la reconnaissance de modèles. En d’autres termes, l’IA est un terme fourre-tout utilisé pour décrire les nouveaux types de logiciels informatiques capables de se rapprocher de l’intelligence humaine. Il n’existe pas de définition unique, précise et universelle de l’IA.
L’apprentissage machine est un sous-ensemble de l’IA. L’apprentissage machine se définit essentiellement comme l’une des façons dont les ordinateurs « apprennent ». C’est une approche de l’IA qui repose sur des algorithmes entraînés pour développer leurs propres règles. Il s’agit d’une alternative aux programmes informatiques traditionnels dans lesquels les règles doivent être codées manuellement. L’Apprentissage machine permet d’extraire des modèles de données et de classer ces dernières dans différents ensembles. L’AM a été décrite comme étant « la science qui permet aux ordinateurs d’agir sans être explicitement programmés ». Deux brèves vidéos donnent des explications simples sur l’IA et l’AM : Qu’est-ce que l’intelligence artificielle ? | Définitions de l’IA et l’Apprentissage machine ?
Parmi les autres sous-ensembles de l’IA figurent le traitement de la parole, le traitement du langage naturel (TLN), la robotique, la cybernétique, la vision, les systèmes experts, les systèmes de planification et le calcul évolutionnaire.
Le diagramme ci-dessus montre les nombreux types de domaines technologiques qui composent l’IA. L’IA peut désigner un large éventail de technologies et d’applications. L’apprentissage machine est un outil utilisé pour créer des systèmes de l’IA. Parlant d’IA, on peut faire référence à une ou plusieurs de ces technologies ou domaines. Les applications qui utilisent l’IA telle que Siri ou Alexa, font appel à plusieurs technologies. Par exemple, si vous dites à Siri : « Siri, montre-moi la photo d’une banane », Siri utilise le traitement du langage naturel (réponse aux questions) pour comprendre ce que vous demandez, puis utilise la vision (reconnaissance d’images) pour trouver une banane et vous la présenter.
Comme indiqué plus haut, il n’y a pas une définition universelle de l’IA. L’IA fait l’objet de nombreux mythes, qu’il s’agisse de la crainte que l’IA prenne le contrôle du monde en réduisant les humains à l’esclavage ou de l’espoir que l’IA puisse un jour servir à guérir le cancer. Ce guide a pour but de donner une compréhension de base de l’intelligence artificielle et de l’apprentissage machine, ainsi que d’exposer certains des avantages et des risques posés par l’IA.
Algorithme : Un algorithme se définit comme étant « une série finie d’instructions bien définies qui peuvent être mises en œuvre par un ordinateur pour résoudre un ensemble spécifique de problèmes informatiques ». Les algorithmes sont des procédures graduelles et sans ambiguïté. Une recette de cuisine est un exemple simple d’algorithme ; un autre exemple d’algorithme est une procédure permettant de trouver le plus grand nombre dans un ensemble de nombres rangés de manière aléatoire. Un algorithme peut être créé par un programmeur ou généré automatiquement. Dans ce dernier cas, il est généré à partir de données via l’AM.
Prise de décision algorithmique/Système de décision algorithmique (SDA) : Les systèmes de décision algorithmique utilisent des données et des analyses statistiques pour prendre des décisions automatisées, par exemple pour déterminer si une personne a droit à une prestation ou soumise à une pénalité. Parmi les exemples de systèmes de décision algorithmique entièrement automatisés, on peut citer le contrôle électronique des passeports dans les aéroports ou la décision automatisée d’une banque d’accorder un prêt non garanti à un client sur la base de ses antécédents en matière de crédit et de son profil de données auprès de la banque. Les fonctions d’aide à la conduite qui commandent les freins, l’accélérateur, la vitesse et la trajectoire d’un véhicule constituent un exemple de SDA semi-automatique.
Big Data: Il existe de nombreuses définitions des « big data », mais on peut généralement les considérer comme étant des jeux de données extrêmement volumineux qui, une fois analysés, peuvent révéler des modèles, des tendances et des associations, y compris ceux liés au comportement humain. La Big Data se caractérise par les cinq V : le Volume, la Vitesse, la Variété, la Véracité et la Valeur des données en question. Cette vidéo/strong> est une brève introduction à la big data et au concept des cinq V.
Étiquette classe : Une étiquette classe est appliquée après qu’un système d’apprentissage machine a classé ses entrées ; par exemple, pour savoir si un courriel est un courriel indésirable.
L’apprentissage profond : L’apprentissage profond est un réseau neuronal à trois couches ou plus qui tente de simuler le comportement du cerveau humain, ce qui permet l’« apprentissage » à partir de grandes quantités de données. L’apprentissage profond est à la base de nombreuses applications de l’IA qui améliorent l’automatisation, telles que les assistants numériques, les télécommandes de télé à commande vocale et la détection des fraudes aux cartes de crédit.
Exploration de données : L’Exploration de données, également connue sous le nom de Découverte de connaissances dans les données, est le « processus d’analyse de volumes denses de données pour trouver des modèles, découvrir des tendances et se faire une idée quant à la façon dont les données peuvent être utilisées ».
IA générative[1] : L’IA générative est un type de modèle d’apprentissage profond qui peut générer du texte, des images et d’autres contenus de haute qualité à partir de données d’entraînement. Voir la section sur l’IA générative pour plus de détails.
Étiquette : Una étiquette est l’élément qu’un modèle d’apprentissage machine prédit ; par exemple le prix futur du blé, le type d’animal représenté sur une photo ou la signification d’un clip audio.
Grand modèle de langage : Un Grand modèle de langage (GML) est « un type d’intelligence artificielle qui se sert des techniques d’apprentissage profond et des jeux de données extrêmement volumineux pour comprendre, synthétiser, générer et prédire de nouveaux contenus. » Un « GML » (Grand modèle de langage) est un type d’IA générative qui a été spécifiquement conçu pour aider à produire du contenu basé sur du texte.
Modèle: Un modèle est la représentation de ce qu’un système d’apprentissage machine a appris à partir des données d’apprentissage.
Réseau neuronal : Un réseau neuronal biologique (RNB) est un système du cerveau qui permet de percevoir des stimuli et d’y répondre. Un réseau neuronal artificiel (RNA) est un système informatique inspiré de son homologue biologique, le cerveau humain. En d’autres termes, un RNA est « une tentative de simuler le réseau de neurones qui composent le cerveau humain afin que l’ordinateur soit capable d’apprendre et de prendre des décisions d’une manière semblable à celle de l’homme. » Les RNA à grande échelle sont à l’origine de plusieurs applications de l’IA.
Profilage : Le profilage implique un traitement automatisé des données afin d’établir des profils qui peuvent être utilisés pour prendre des décisions concernant des personnes.
Robot : Les robots sont des appareils programmables et automatisés. Les robots entièrement autonomes (par exemple, les véhicules à conduite autonome) sont capables de fonctionner et de prendre des décisions sans contrôle humain. L’IA permet aux robots de percevoir les changements dans leur environnement et d’adapter leurs réponses et leurs comportements en conséquence afin d’effectuer des tâches complexes sans intervention humaine.
Notation : La notation, également appelée prédiction, est le processus par lequel un modèle d’apprentissage machine entraîné génère des valeurs sur la base de nouvelles données d’entrée. Les valeurs ou les scores créés peuvent représenter des prédictions de valeurs futures, mais peuvent également représenter une catégorie ou un résultat probable. Lorsqu’elle est utilisée à l’égard des personnes, la notation devient une prédiction statistique qui détermine si un individu correspond à une catégorie ou à un résultat. Une côte de crédit, par exemple, est un nombre tiré d’une analyse statistique qui représente la solvabilité d’un individu.
Apprentissage supervisé : Dans l’apprentissage supervisé, les systèmes d’AM sont entraînés sur des données bien étiquetées. En utilisant des entrées et des sorties étiquetées, le modèle peut mesurer sa précision et apprendre au fil du temps.
Apprentissage non supervisé : L’apprentissage non supervisé utilise des algorithmes d’apprentissage machine pour trouver des modèles dans des jeux de données non étiquetés sans intervention humaine.
Entraînement : Dans l’apprentissage machine, l’entraînement est le processus qui consiste à déterminer les paramètres idéaux d’un modèle.
Comment fonctionnent l’intelligence artificielle et l’apprentissage machine?
L'Intelligence artificielleL’Intelligence artificielle est une approche interdisciplinaire qui combine l’informatique, la linguistique, la psychologie, la philosophie, la biologie, les sciences neurologiques, les statistiques, les mathématiques, la logique et l’économie pour « comprendre, modéliser et reproduire l’intelligence et les processus cognitifs.»
Les applications de l’IA existent dans tous les domaines, dans toutes les industries et dans les différents aspects de la vie quotidienne. L’IA étant très vaste, il est utile de la considérer comme étant composée de trois catégories :
- L’IA faible ou l’intelligence artificielle étroite (IA étroite) est un système expert dans une tâche spécifique, telle que la reconnaissance d’images, jouer au go ou demander à Alexa ou à Siri de répondre à une question.
- L’IA forte ou l’Intelligence générale artificielle (IAG) est une IA qui égale l’intelligence humaine.
- La Super intelligence artificielle (ASI en anglais) est une IA qui dépasse les capacités humaines.
Les techniques modernes d’IA se développent rapidement et les applications de l’IA se font déjà omniprésentes. Toutefois, ces applications n’existent actuellement que dans le domaine de l’« IA faible.» L’Intelligence générale artificielle et la super intelligence artificielle n’ont pas encore été réalisées et ne le seront probablement pas avant quelques années ou décennies.
L’apprentissage machine est une application de l’intelligence artificielle. Bien que les deux termes soient souvent utilisés de manière interchangeable, l’apprentissage machine est un processus par lequel une application de l’IA est développée. Le processus d’apprentissage machine implique un algorithme qui fait des observations basées sur des données, identifie des modèles et des corrélations dans les données et utilise le modèle ou la corrélation pour faire des prédictions. La majeure partie de l’IA utilisée aujourd’hui repose sur l’apprentissage machine.
Tout comme il est utile de subdiviser l’IA en trois catégories, l’apprentissage machine peut également s’envisager comme trois techniques différentes : l’apprentissage supervisé; l’apprentissage non supervisé et l’apprentissage profond.
L’apprentissage supervisé permet de classer efficacement les données en fonction de définitions préexistantes intégrées à un jeu de données contenant des exemples d’apprentissage avec des étiquettes associées. Prenons l’exemple d’un système de filtrage des spams qui est entraîné à l’aide de courriel et de courriels indésirables. Dans ce cas, « l’entrée » est constituée de tous les courriers électroniques traités par le système. Une fois que les humains ont marqué certains courriels comme étant indésirables, le système trie les courriels indésirables dans un dossier séparé. Le « résultat » est la catégorisation du courrier électronique. Le système établit une corrélation entre l’étiquette « indésirable» et les caractéristiques du message électronique, telles que le texte de la ligne d’objet, les phrases du corps du message ou l’adresse électronique ou l’adresse IP de l’expéditeur. À l’aide de cette corrélation, le système tente de prédire l’étiquette correcte (courriel indésirable/courriel) à appliquer à tous les futurs courriels qu’il traite.
Dans ce cas, les termes « courriel indésirable» et « non spam » [courriel] sont appelés « étiquettes de classe ». La corrélation trouvée par le système est appelée « modèle » ou « modèle prédictif ». Le modèle peut être considéré comme un algorithme que le système d’AM a généré automatiquement en utilisant des données. Les messages étiquetés à partir desquels le système apprend sont appelés « données d’apprentissage ». La « variable cible » est la caractéristique que le système recherche ou sur laquelle il veut en savoir plus – dans ce cas, il s’agit du caractère « indésirable » d’un courrier électronique. La « bonne réponse », pour ainsi dire, dans la catégorisation du courrier électronique est appelée « résultat souhaité » ou « résultat d’intérêt ».
L’apprentissage non supervisé implique que les réseaux neuronaux trouvent une relation ou un modèle sans avoir accès à des jeux de données préalablement étiquetés de paires entrée-sortie. Les réseaux neuronaux organisent et regroupent eux-mêmes les données, en trouvant des modèles récurrents et en détectant les écarts par rapport à ces modèles. Ces systèmes ont tendance à être moins prévisibles que ceux qui utilisent des jeux de données étiquetées et sont le plus souvent déployés dans des environnements qui peuvent changer à une certaine fréquence et qui ne sont pas structurés ou partiellement structurés. En voici quelques exemples :
- Un système de reconnaissance optique de caractères qui peut « lire » un texte manuscrit, même s’il n’a jamais connu l’écriture manuelle auparavant.
- Les produits recommandés qu’un utilisateur voit sur les sites web de vente au détail. Ces recommandations peuvent être déterminées en associant l’utilisateur à un grand nombre de variables telles que son historique de navigation, les articles qu’il a achetés précédemment, les évaluations qu’il a faites de ces articles, les articles qu’il a enregistrés dans une liste de souhaits, la localisation de l’utilisateur, les appareils qu’il utilise, ses marques préférées et les prix de ses achats précédents.
- La détection des transactions monétaires frauduleuses en fonction du moment et de l’endroit où elles sont effectuées. Par exemple, si deux transactions consécutives ont été effectuées à partir d’une même carte de crédit dans un court laps de temps et dans deux villes différentes.
Une combinaison d’apprentissage supervisé et non supervisé (appelée « apprentissage semi-supervisé ») est utilisée lorsqu’un jeu de données relativement petit avec des étiquettes est disponible pour former le réseau neuronal et agir sur un jeu de données plus grand, non étiqueté. Un exemple d’apprentissage semi-supervisé est le logiciel qui crée des hypertrucages, c’est-à-dire des fichiers audio, vidéos ou images numériquement modifiés.
L’apprentissage profond utilise des réseaux neuronaux artificiels (RNA) à grande échelle, appelés réseaux neuronaux profonds, pour créer une IA capable de détecter les fraudes financières, d’analyser des images médicales, de traduire de grandes quantités de texte sans intervention humaine et d’automatiser la modération de contenus sur les sites web de réseaux sociaux. Ces réseaux neuronaux apprennent à effectuer des tâches en utilisant de nombreuses couches de processus mathématiques pour trouver des modèles ou des relations entre différents points de données dans les jeux de données. L’une des principales caractéristiques de l’apprentissage profond est que ces RNA peuvent parcourir, examiner et trier d’énormes quantités de données, ce qui leur permet théoriquement d’identifier de nouvelles solutions à des problèmes existants.
L’IA générative est un type de modèle d’apprentissage profond qui peut générer du texte, des images et d’autres contenus de haute qualité à partir de données d’apprentissage. Le lancement du robot conversationnel d’OpenAI, ChatGPT, à la fin de l’année 2022, a mis l’accent sur l’IA générative et a donné lieu à une course entre les entreprises pour produire des versions alternatives (et idéalement supérieures) de cette technologie. L’enthousiasme suscité par les grands modèles de langage et d’autres formes d’IA générative s’est également accompagné de préoccupations quant à la précision, la partialité de ces outils, la confidentialité des données et la manière dont ces outils peuvent être utilisés pour répandre plus efficacement la désinformation.
Même s’il existe d’autres types d’apprentissage machine, ces trois – l’apprentissage supervisé, l’apprentissage non supervisé et l’apprentissage profond – représentent les techniques de base utilisées pour créer et entraîner des systèmes d’IA.
L’intelligence artificielle est construite par des humains et entraînée à partir de données générées par eux. Inévitablement, il y a un risque que les biais humains individuels et sociétaux soient transmis aux systèmes d’IA héritent.
Il existe trois types de biais courants dans les systèmes informatiques :
- Les biais préexistants trouvent leur origine dans les institutions, les pratiques et les attitudes sociales.
- Les biais techniques résultent de contraintes ou de considérations d’ordre technique.
- Les biais émergents apparaissent dans un contexte d’utilisation.
Les biais de l’intelligence artificielle peuvent affecter, par exemple, les publicités politiques que l’on voit sur l’Internet, le contenu placé en tête des fils d’actualité des médias sociaux, le coût d’une prime d’assurance, les résultats d’un processus de sélection de recrutement ou la capacité à passer les contrôles aux frontières dans un autre pays.
Un biais dans un système informatique est une erreur systématique et qui peut se répéter. Étant donné que l’AM traite de grandes quantités de données, même une petite marge d’erreur peut être aggravée ou amplifiée et affecter considérablement les résultats du système. Une décision prise par un système d’AM, en particulier un système qui traite des jeux de données volumineux, est souvent une prédiction statistique. Sa précision est donc liée à la taille du jeu de données. Des jeux de données d’entraînement plus importants sont susceptibles de produire des décisions plus précises et de réduire le risque d’erreurs.
Les biais dans les systèmes d’IA/AM peuvent conduire à des pratiques discriminatoires, ce qui occasionne en fin de compte l’exacerbation des inégalités existantes ou la création de nouvelles inégalités. Pour de plus amples informations, voir
les biais de l’IA et la section Risques de ce document.
En quoi l'IA et l'AM sont-ils pertinents à l'espace civique et à la démocratie ?

La prolifération à grande échelle, le déploiement rapide, l’étendue, la complexité et l’impact de l’IA sur la société constituent un sujet de grand intérêt et de préoccupation pour les gouvernements, la société civile, les ONG, les organismes de défense des droits de l’homme, les entreprises et le grand public. Les systèmes d’IA peuvent nécessiter divers degrés d’interaction humaine ou n’en nécessiter aucune. Appliqué(e) à la conception, à l’exploitation et à la prestation de services, l’IA/l’AM offre la possibilité de fournir de nouveaux services et d’améliorer la rapidité, le ciblage, la précision, l’efficacité, la cohérence, la qualité ou la performance des services existants. Elle peut ouvrir de nouvelles perspectives en mettant en évidence des liens, des relations et des modèles jusqu’alors inconnus, et en proposant de nouvelles solutions. En analysant de grandes quantités de données, les systèmes d’AM permettent de gagner en temps, en argent et en efforts. Parmi les exemples d’application de l’IA/l’AM dans différents domaines, citons l’utilisation d’algorithmes de l’IA/de l’AM et de données antérieures en matière de conservation de la faune pour prédire les attaques de braconniers et découvrir de nouvelles espèces de virus.

Les capacités prédictives de l’IA et l’application de l’IA et de l’AM à la classification, l’organisation, le regroupement et la recherche d’informations ont apporté des améliorations dans de nombreux domaines, notamment les soins de santé, les transports, la gouvernance, l’éducation, l’énergie et la sécurité, ainsi que la sûreté, la prévention de la criminalité, le maintien de l’ordre, l’application de la loi, la gestion urbaine et le système judiciaire. Par exemple, l’AM peut être utilisé pour suivre les progrès et l’efficacité des programmes gouvernementaux et philanthropiques. Les administrations municipales, y compris celles des villes intelligentes, utilisent l’AM pour analyser les données accumulées au fil du temps sur la consommation de l’énergie, les embouteillages, les niveaux de pollution et de déchets, afin de surveiller et de gérer ces questions et dégager des modèles dans leur production, leur consommation et leur traitement.

L’IA est également utilisée dans la surveillance du climat, les prévisions météorologiques, la prévision des catastrophes naturelles et des risques, et la planification du développement des infrastructures. Dans le domaine des soins de santé, les systèmes d’IA permettent aux professionnels d’établir des diagnostics médicaux, de pratiquer des opérations chirurgicales assistées par robot, de faciliter la détection des maladies, de prévoir les épidémies, de remonter à la source ou aux sources de propagation des maladies, etc. Les organes chargés de l’application de la loi et de la sécurité déploient des systèmes de surveillance basés sur l’IA/l’AM, des systèmes de reconnaissance faciale, des drones et des services de maintien de l’ordre prédictif pour assurer la sécurité des citoyens. D’autre part, nombre de ces applications soulèvent des questions concernant l’autonomie individuelle, la vie privée, la sécurité, la surveillance de masse, l’inégalité sociale et l’impact négatif sur la démocratie (voir la section Risques).

L’IA et l’AM revêtent des implications à la fois positives et négatives pour les politiques publiques et les élections, ainsi que pour la démocratie de manière plus générale. Si les données peuvent être utilisées pour maximiser l’efficacité d’une campagne grâce à des messages ciblés dont l’objectif est de persuader les électeurs potentiels, elles peuvent également être utilisées à des fins de propagande ou de la mésinformation auprès de publics vulnérables. Lors de l’élection présidentielle américaine de 2016, par exemple, Cambridge Analytica a utilisé la big data et l’apprentissage machine pour adapter les messages aux électeurs en fonction des prédictions sur leur sensibilité à différents arguments.
Lors des élections de 2017 au Royaume-Uni et en France, les
robots politiques ont été utilisés pour diffuser des informations erronées sur les médias sociaux et divulguer des courriels de campagne privés. Ces robots autonomes sont « programmés pour diffuser agressivement des messages politiques unilatéraux afin de créer l’illusion d’un soutien public », voire dissuader certaines populations de voter. Les hypertrucages (fichiers audio ou vidéo fabriqués ou modifiés par l’IA) contribuent également à répandre la confusion et les mensonges sur les candidats politiques et d’autres acteurs concernés. Même si l’intelligence artificielle peut être utilisée pour exacerber et amplifier la désinformation, elle peut également être appliquée à des solutions potentielles pour relever certains défis. Voir la section Études de cas de ce document pour des exemples quant à la façon dont les experts de la vérification des faits tirent parti de l’intelligence artificielle pour identifier et déconstruire plus efficacement les récits faux et trompeurs.
Les cyber-criminels qui cherchent à perturber les processus électoraux utilisent l’apprentissage machine pour cibler efficacement leurs victimes et élaborer des stratégies pour déjouer les cyber défenses. Bien que ces tactiques puissent être utilisées pour prévenir les cyberattaques, le niveau d’investissement des acteurs malveillants dans les technologies de l’intelligence artificielle dépasse souvent celui des gouvernements légitimes ou d’autres entités officielles. Certains de ces acteurs utilisent également des outils de surveillance numérique alimentés par l’IA, pour traquer et cibler les figures de l’opposition, les défenseurs des droits de l’homme, et d’autres personnes perçues comme des détracteurs.
Comme indiqué ailleurs dans ce document, « le potentiel des systèmes de prise de décision automatisés pour renforcer les biais et la discrimination a également un impact sur le droit à l’égalité et à l’animation de la vie publique. » Les biais des systèmes d’IA peuvent nuire aux communautés historiquement sous-représentées et exacerber les clivages existants entre les sexes et les préjudices en ligne subis par les femmes candidates, politiciennes, activistes et journalistes.
Les solutions basées sur l’IA peuvent contribuer à améliorer la transparence et la légitimité des stratégies de campagne, par exemple en utilisant les robots politiques pour identifier les articles contenant des informations erronées ou en fournissant un outil de collecte et d’analyse des préoccupations des électeurs. L’Intelligence artificielle peut également être utilisée pour rendre le redécoupage moins partisan (même si dans certains cas, elle facilite également le découpage électoral arbitraire partisan) et pour prévenir ou détecter les fraudes ou les erreurs administratives significatives. L’apprentissage machine peut informer les défenseurs des droits en prédisant quels textes de loi seront approuvés sur la base d’évaluations algorithmiques du texte de loi, du nombre de sponsors ou de partisans, et même de la période de l’année où la loi est introduite.
L’impact complet du déploiement des systèmes d’IA sur l’individu, la société et la démocratie n’est pas connu ou connaissable, ce qui crée de nombreux problèmes juridiques, sociaux, réglementaires, techniques et éthiques. La question des biais préjudiciables de l’Intelligence artificielle et de leur rapport avec les droits de l’homme et les droits civils préoccupe les gouvernements et les activistes. Le Règlement général sur la protection des données (RGPD) de l’Union européenne (UE) contient des dispositions sur la prise de décision automatisée, y compris le profilage. La Commission européenne a publié un livre blanc sur l’IA en février 2020, en prélude à une législation potentielle régissant l’utilisation de l’IA dans l’UE, tandis qu’un autre organe de l’UE a publié des recommandations sur l’impact des systèmes algorithmiques sur les droits de l’homme. De même, l’Allemagne, la France, le Japon, et l’Inde ont élaboré des stratégies de l’IA pour la politique et la législation. Le physicien Stephen Hawking a déclaré un jour: « …réussir à créer une IA pourrait être le plus grand événement de l’histoire de notre civilisation. Mais elle pourrait aussi être la dernière, à moins que nous n’apprenions à éviter les risques.»
Les opportunités
L’intelligence artificielle et l’apprentissage machine peuvent avoir des effets positifs lorsqu’ils sont utilisés pour faire avancer la démocratie, les droits de l’homme et la bonne gouvernance. Consultez les ressources ci-dessous pour apprendre à réfléchir de manière plus efficace et plus sûre à l’intelligence artificielle et à l’apprentissage machine dans le cadre de votre travail.
Détecter et surmonter les biaisMême si l’Intelligence artificielle peut reproduire les biais humains, comme nous l’avons vu plus haut, elle peut également être utilisée pour lutter contre les biais inconscients dans des contextes tels que le recrutement. Des algorithmes bien conçus peuvent mettre en évidence des biais cachés et, dans certains cas, inciter les gens à adopter des comportements moins biaisés, par exemple en masquant le nom, l’âge et d’autres éléments déclencheurs de préjugés sur un curriculum vitae.
Les systèmes d’IA peuvent être utilisés pour détecter les attaques contre les infrastructures publiques, telles qu’une cyberattaque ou une fraude à la carte de crédit. Les fraudes en ligne étant de plus en plus élaborées, les entreprises, les gouvernements et les particuliers doivent être en mesure de les identifier rapidement, voire les prévenir avant qu’elles ne se produisent. L’apprentissage machine peut permettre d’identifier des modèles agiles et inhabituels qui correspondent ou dépassent les stratégies traditionnelles utilisées jusque-là pour éviter la détection.
D’immenses quantités de contenus sont téléversées chaque seconde sur Internet et les médias sociaux. Il y a tout simplement trop de vidéos, de photos et de messages pour que des humains puissent les examiner manuellement. Les outils de filtrage tels que les algorithmes et les techniques d’apprentissage machine sont utilisés par de nombreuses plates-formes de médias sociaux pour filtrer les contenus en violation de leurs conditions d’utilisation (tels que les contenus pédopornographiques, les violations des droits d’auteur ou les courriers indésirables). En effet, l’Intelligence artificielle est à l’œuvre dans votre boîte de réception, filtrant automatiquement le contenu marketing indésirable de votre boîte de réception principale. Récemment, l’arrivée des hypertrucages et d’autres contenus générés par ordinateur nécessite des tactiques d’identification tout aussi avancées. Les vérificateurs de faits et d’autres acteurs qui s’efforcent de désamorcer le pouvoir dangereux et trompeur des hypertrucages développent leur propre intelligence artificielle pour identifier ces médias comme étant faux.
Les moteurs de recherche fonctionnent selon un système de classement algorithmique. Bien sûr que les moteurs de recherche ne sont pas exempts d’erreurs et de défauts graves, mais ils nous permettent de localiser des informations dans le vaste macrocosme de l’Internet. Les moteurs de recherche sur le web (comme Google et Bing) ou au sein de plates-formes et de sites web (tels que les recherches sur Wikipédia ou le New York Times) peuvent améliorer leurs systèmes de classement algorithmique en utilisant l’apprentissage automatique pour générer des résultats de meilleure qualité qui peuvent s’avérer bénéfiques à la société. Par exemple, Google a mis en place une initiative visant à mettre en évidence les reportages originaux; cette initiative donne la priorité à la première occurrence d’un sujet d’actualité plutôt qu’aux sources qui reprennent l’information.
L’apprentissage machine a permis de faire des avancées incroyablement notables dans le domaine de la traduction. Par exemple, DeepL est une petite entreprise de traduction automatique mais dont les performances ont dépassé les capacités de traduction des plus grandes entreprises technologiques. D’autres entreprises ont également créé des algorithmes de traduction qui permettent aux gens du monde entier de traduire des textes dans leur langue préférée ou de communiquer dans des langues autres que celles qu’ils connaissent bien, ce qui a fait avancer le droit fondamental de l’accès à l’information, ainsi que le droit à la liberté d’expression et le droit d’être entendu.
Risques
L’utilisation de technologies émergentes telles que l’IA peut également représenter des risques pour la démocratie et les programmes de la société civile. Consultez les ressources ci-dessous pour apprendre à discerner les dangers possibles liés à l’intelligence artificielle et à l’apprentissage machine dans le travail sur les DDG, ainsi que la façon d’atténuer les conséquences involontaires et voulues.
Discrimination à l'encontre des groupes marginalisésL’IA peut prendre des décisions susceptibles d’entraîner une discrimination de plusieurs ordres, notamment en définissant la « variable cible » et les « étiquettes classes » au cours du processus d’étiquetage des données d’apprentissage, lors de la collecte des données d’apprentissage, lors de la sélection des caractéristiques et au cours de l’identification des substituts. Il est également possible de configurer intentionnellement un système d’IA pour qu’il soit discriminatoire à l’égard d’un ou plusieurs groupes. Cette vidéo explique comment les systèmes de reconnaissance faciale disponibles dans le commerce, entrainés à partir de jeux de données à caractère raciste, sont discriminatoires à l’égard des personnes à la peau foncée, des femmes et des personnes de sexe différent.
La précision des systèmes d’IA repose sur la manière dont l’AM traite les Big Data, qui dépendent elles-mêmes de la taille du jeu de données. Plus la taille est grande, plus les décisions du système sont susceptibles d’être précises. Toutefois, les femmes, les Noirs et les personnes de couleur, les personnes en situation de handicap, les minorités, les populations autochtones, les LGBTQ+ et les autres minorités ont moins de chances d’être représentées dans un jeu de données en raison d’une discrimination structurelle, de la taille du groupe ou d’attitudes extérieures qui les empêchent de participer pleinement à l’animation de la vie sociale. Les biais dans les données d’apprentissage reflètent et systématisent les discriminations existantes. Un système d’IA étant souvent une boîte noire, il est difficile de déterminer pourquoi l’IA prend certaines décisions à l’égard de certaines personnes ou de certains groupes de personnes, ou de prouver de manière irréfutable qu’elle a pris une décision discriminatoire. Il est donc difficile de déterminer si certaines personnes ont fait l’objet de discrimination en raison de leur race, de leur sexe, de leur statut de marginalisé ou d’autres caractéristiques protégées. Par exemple, les systèmes d’IA utilisés dans le maintien de l’ordre prédictif, la prévention de la criminalité, l’application de la loi et les systèmes de justice pénale sont, d’une certaine manière, des outils d’évaluation des risques. À l’aide de données historiques et d’algorithmes complexes, ils génèrent des scores prédictifs censés indiquer la probabilité d’occurrence d’un délit, le lieu et l’heure probables, ainsi que les personnes susceptibles d’être impliquées. En s’appuyant sur des données ou des structures décisionnelles biaisées, ces systèmes peuvent finir par renforcer les stéréotypes sur les groupes défavorisés, marginalisés ou minoritaires.
Une étude de la Royal Statistical Society note que «…le maintien de l’ordre prédictif des crimes liés à la drogue entraîne un maintien de l’ordre de plus en plus disproportionné dans les communautés historiquement surveillées à l’excès… et, dans les cas extrêmes, les contacts supplémentaires avec la police créeront des occasions supplémentaires de violence policière dans ces zones surveillées à l’excès ». Lorsque les coûts de maintien de l’ordre sont disproportionnés par rapport au niveau de criminalité, il ne s’agit ni plus ni moins que d’une politique discriminatoire ». De même, lorsque des applications mobiles pour la ou des logiciels pour l’évaluation des crédits, les banques, les assurances, les soins de santé et la sélection des employés et des étudiants d’universités reposent sur des données et des décisions biaisées, elles renforcent l’inégalité sociale et les stéréotypes négatifs et néfastes.
Les risques liés aux systèmes d’IA sont exacerbés lorsque ces derniers prennent des décisions ou font des prédictions concernant des groupes vulnérables tels que les réfugiés, ou concernant des circonstances de vie ou de mort, comme dans le cas des soins médicaux. Un rapport de 2018 du Citizen Lab de l’Université de Toronto constate que « plusieurs [demandeurs d’asile et immigrants] viennent de pays déchirés par la guerre et cherchent à se protéger de la violence et de la persécution. Le caractère nuancé et complexe de nombreuses demandes d’asile et d’immigration peut échapper à ces technologies, ce qui entraîne de graves violations des droits de l’homme protégés au niveau national et international, sous la forme de préjugés, de discriminations, d’atteintes à la vie privée, de problèmes d’équité procédurale et de respect des droits de la défense, entre autres. Ces systèmes auront des conséquences vitales pour les gens ordinaires, dont beaucoup fuient pour sauver leur vie ». Pour les utilisations médicales et les soins de santé, les enjeux sont particulièrement élevés car une décision incorrecte prise par un système d’IA pourrait potentiellement mettre des vies en danger ou modifier radicalement la qualité de la vie ou le bien-être des personnes concernées.
Les pirates malveillants et les organisations criminelles peuvent utiliser les systèmes d’AM pour identifier les vulnérabilités des infrastructures publiques ou des systèmes privés, tels que les dispositifs de l’Internet des objets (IdO) et les voitures autonomes, puis les cibler.
Si des entités malveillantes ciblent des systèmes d’IA déployés dans des infrastructures publiques, telles que les villes intelligentes, les réseaux intelligents, les installations nucléaires, les établissements de santé et les systèmes bancaires, entre autres, elles «seront plus difficiles à protéger, car ces attaques sont susceptibles de devenir plus automatisées et plus complexes et le risque de défaillances en cascade sera plus difficile à prévoir ». Un adversaire intelligent peut soit tenter de découvrir et d’exploiter les faiblesses existantes dans les algorithmes, ou en créer une qu’il exploitera par la suite ». L’exploitation peut se faire, par exemple, par le biais d’une attaque par empoisonnement, qui interfère avec les données d’apprentissage si c’est l’apprentissage machine qui est utilisé. Ces pirates peuvent également «utiliser des algorithmes d’AM pour identifier automatiquement les vulnérabilités et optimiser les attaques en étudiant et en apprenant en temps réel sur les systèmes qu’ils ciblent.»
Le déploiement de systèmes d’IA sans garanties adéquates ni mécanismes de recours peut présenter de nombreux risques pour la vie privée et la protection des données. Les entreprises et les gouvernements collectent d’immenses quantités de données à caractère personnel afin d’entraîner les algorithmes des systèmes d’IA qui fournissent des services ou exécutent des tâches spécifiques. Les criminels, les gouvernements non libéraux et les personnes mal intentionnées ciblent souvent ces données à des fins économiques ou politiques. Par exemple, les données de santé saisies à partir d’applications de téléphones intelligents et de dispositifs portables connectés à Internet peuvent, en cas de fuite, être utilisées à mauvais escient par des agences de crédit, des compagnies d’assurance, des courtiers en données, des cybercriminels, etc. Le problème ne se pose pas seulement en termes de fuites, mais aussi de données que les gens communiquent volontairement sans savoir l’utilisation qui en sera faite par la suite. Cela concerne aussi ce que nous partageons avec les entreprises et les agences gouvernementales. La violation ou l’abus de données non personnelles, telles que des données anonymes, des simulations, des données synthétiques ou des règles ou procédures généralisées, peut également affecter les droits de l’homme.
Les systèmes d’IA utilisés à des fins de surveillance, de maintien de l’ordre, de condamnation pénale, à des fins juridiques, etc. deviennent un nouveau moyen pour l’État d’abuser de ses pouvoirs pour contrôler les citoyens et les dissidents politiques. La crainte du profilage, de la notation, de la discrimination et de la surveillance numérique omniprésente peut avoir un effet paralysant sur la capacité ou la volonté des citoyens à exercer leurs droits ou à s’exprimer. De nombreuses personnes modifieront leur comportement afin d’obtenir les avantages d’une bonne notation et d’éviter les inconvénients d’une mauvaise notation.
L’opacité peut être interprétée comme un manque de transparence ou un manque d’intelligibilité. Les algorithmes, le code logiciel, le traitement en coulisses et le processus de décision lui-même peuvent ne pas être compréhensibles pour ceux qui ne sont pas des experts ou des professionnels spécialisés. En matière juridique ou judiciaire, par exemple, les décisions prises par un système d’IA ne sont pas accompagnées d’explications, contrairement aux décisions prises par les juges qui sont tenus de motiver leur décision ou leur jugement.
Les systèmes d’automatisation, y compris les systèmes d’IA/AM sont de plus en plus utilisés pour remplacer la main d’œuvre humaine dans divers domaines et industries, entraînant la suppression d’un grand nombre d’emplois et un chômage structurel (connu sous le nom de chômage technologique). Avec l’introduction des systèmes d’IA/AM, certains types d’emplois disparaîtront, d’autres seront transformés et de nouveaux emplois apparaîtront. Les nouveaux emplois sont susceptibles d’exiger des compétences spécifiques ou spécialisées qui se prêtent aux systèmes d’IA/AM.
Le profilage et la notation dans l’IA font craindre que les personnes soient déshumanisées et réduites à un profil ou à une note. Les systèmes automatisés de prise de décision peuvent affecter le bien-être, l’intégrité physique et la qualité de vie. Cela affecte ce qui constitue le consentement (ou l’absence de consentement) d’une personne, la manière dont le consentement est formé, communiqué et compris, et le contexte dans lequel il est valable. « La dilution de la base libre de notre consentement individuel – que ce soit par une distorsion pure et simple de l’information ou même simplement par l’absence de transparence – compromet les fondements mêmes de la façon dont nous exprimons nos droits humains et de la façon dont nous tenons les autres responsables de leur privation ouverte (ou même latente) ». – Human Rights in the Era of Automation and Artificial Intelligence
Questions
Si vous essayez de comprendre les implications de l’Intelligence artificielle et de l’Apprentissage machine dans votre environnement de travail, ou si vous envisagez d’utiliser certains aspects de ces technologies dans le cadre de votre programme de DDG, posez-vous les questions suivantes :
-
L’Intelligence artificielle ou l’apprentissage machine sont-ils des outils appropriés, nécessaires et adéquats à utiliser pour ce projet et avec cette communauté ?
-
Qui sont les concepteurs et les superviseurs de la technologie ? Peuvent-ils expliquer ce qui se passe aux différentes étapes du processus ?
-
Quelles sont les données utilisées pour concevoir et entraîner la machine ? Comment ces données pourraient-elles conduire à un fonctionnement biaisé ou défectueux de la technologie ?
-
Quelle raison avez-vous de faire confiance aux décisions de la technologie ? Comprenez-vous pourquoi vous obtenez un certain résultat, ou y aurait-t-il une erreur quelque part ? Y a-t-il quelque chose d’inexplicable ?
-
Êtes-vous sûr que la technologie fonctionnera comme prévu lorsqu’elle sera utilisée dans votre communauté et dans le cadre de votre projet, plutôt que dans un laboratoire (ou dans un cadre théorique) ? Quels sont les éléments de votre situation qui pourraient causer des problèmes ou modifier le fonctionnement de la technologie ?
-
Qui analyse et met en œuvre la technologie de l’IA/AM ? Ces personnes comprennent-elles la technologie et sont-elles conscientes de ses défauts et dangers potentiels ? Ces personnes sont-elles susceptibles de prendre des décisions biaisées, soit en interprétant mal la technologie, soit pour tout autre raison ?
-
Quelles mesures avez-vous mises en place pour identifier et traiter les biais potentiellement dangereux de la technologie ?
-
Quelles garanties réglementaires et quels mécanismes de recours avez-vous mis en place pour les personnes qui affirment que la technologie a été injuste à leur égard ou qu’elle a abusé d’elles d’une manière ou d’une autre ?
-
Votre technologie d’IA/AM pourrait-elle perpétuer ou accroître les inégalités sociales, même si les avantages de l’utilisation de l’IA et de l’AM l’emportent sur ces risques ? Que ferez-vous pour minimiser ces problèmes et rester vigilant ?
- <divÊtes-vous certain que la technologie respecte les réglementations et les normes juridiques pertinentes, y compris le RGPD?
Études de cas
Exploiter l'intelligence artificielle pour promouvoir l'intégrité de l'informationeMonitor+ du Programme des Nations unies pour le développement est une plate-forme alimentée par l’IA qui aide à « analyser les messages des médias en ligne pour identifier les violations électorales, la mésinformation, les discours de haine, la polarisation politique et le pluralisme, ainsi que les violences faites aux femmes en ligne ». L’analyse des données facilitée par eMonitor+ permet aux commissions électorales et aux acteurs des médias « d’observer la fréquence, la nature et l’impact des violences en ligne ». La plate-forme s’appuie sur l’apprentissage machine pour suivre et analyser le contenu des médias numériques et générer des représentations graphiques pour la visualisation des données. eMonitor+ a été utilisé par Peru’s Asociación Civil Transparencia et Ama Llulla pour cartographier et analyser les cas de violence numérique et les discours de haine dans le dialogue politique; et par Supervisory Election Commission pendant les élections parlementaires libanaises de 2022, pour surveiller les violations électorales potentielles, les dépenses de campagne et les fausses informations. La Haute commission électorale nationale de Libye a également utilisé eMonitor+ pour surveiller et identifier les violences en ligne à l’encontre des femmes lors des élections.
À l’approche de l’élection présidentielle de 2023 au Nigeria, l’organisation spécialisée en vérification des faits Full Fact, basée au Royaume-Uni, a proposé sa suite d’intelligence artificielle, composée de trois outils qui fonctionnent à l’unisson pour automatiser les longs processus de vérification des faits – afin d’accroître considérablement la capacité de vérification des faits au Nigeria. Selon Full Fact, ces outils ne sont pas destinés à remplacer les agents humains en vérification des faits, mais plutôt à les aider à effectuer des contrôles et des vérifications manuels chronophages, ce qui leur laisse « plus de temps pour faire ce qu’ils savent faire le mieux à savoir, comprendre ce qui est important dans le débat public, examiner les allégations, examiner les données, parler avec des experts et partager leurs conclusions ». Les outils évolutifs, qui sont dotés des fonctions de recherche, d’alerte et de diffusion en direct, permettent aux vérificateurs des faits de « surveiller les sites web d’information, les pages de médias sociaux et de transcrire en direct des émissions de télévision ou de radio afin de trouver des allégations à vérifier ».
Suivi du développement des cultures : Agroscout
“L’impact croissant du changement climatique pourrait encore réduire les rendements agricoles, en particulier dans les régions du monde les plus touchées par l’insécurité alimentaire. Et nos systèmes alimentaires sont responsables d’environ 30 % des émissions de gaz à effet de serre. La start-up israélienne AgroScout imagine un monde où les aliments sont cultivés de manière plus durable. « Notre plate-forme utilise l’IA pour surveiller le développement des cultures en temps réel, afin de planifier plus précisément les opérations de traitement et de fabrication à travers les régions, les cultures et les producteurs », a déclaré Simcha Shore, fondateur et PDG d’AgroScout. En utilisant la technologie de l’IA, AgroScout détecte les parasites et les maladies à un stade précoce, ce qui permet aux agriculteurs d’appliquer des traitements précis qui réduisent l’utilisation de produits agrochimiques jusqu’à 85 %. Cette innovation permet de minimiser les dommages causés à l’environnement par les produits agrochimiques traditionnels, apportant ainsi une contribution positive aux pratiques agricoles durables ».
Le projet Machine Learning for Peace [Apprentissage machine au service de la paix] cherche à comprendre comment l’espace civique évolue dans tous les pays du monde en utilisant des techniques d’apprentissage machine de pointe. En s’appuyant sur les dernières innovations en matière de traitement du langage naturel, le projet s’emploie à classifier « un énorme corpus d’actualités numériques en 19 types « d’événements » liés à l’espace civique et 22 types d’événements liés à la Résurgence de l’influence autoritaire (RAI en anglais), qui illustrent les efforts déployés par les régimes autoritaires pour exercer une influence sur les pays en développement ». Parmi les « événements » de l’espace civique qui font l’objet d’un suivi figurent l’activisme, les coups d’État, les activités électorales, les changements juridiques et les manifestations. Les données sur les événements liés à l’espace civique sont associées à des « données économiques à haute fréquence afin d’identifier les principaux facteurs de l’espace civique et de prévoir les changements dans les mois à venir ». En fin de compte, le projet espère servir « d’instrument utile pour les chercheurs à la recherche de données riches et à haute fréquence sur les régimes politiques, ainsi que pour les décideurs et les militants qui luttent pour défendre la démocratie à travers le monde ».
Sécurité alimentaire : Détection des maladies dans les cultures par l’analyse d’images
« Les maladies des plantes ne constituent pas seulement une menace pour la sécurité alimentaire à l’échelle mondiale; elles peuvent également avoir des conséquences désastreuses pour les petits exploitants agricoles dont les moyens de subsistance dépendent de cultures saines. Pour compléter les solutions existantes de diagnostic des maladies par un système de diagnostic assisté par téléphone intelligent, les chercheurs ont utilisé un jeu de données publiques de 54 306 images de feuilles de plantes malades et saines pour entraîner un « réseau neuronal convolutif profond » à l’effet d’identifier automatiquement 14 espèces de cultures différentes et 26 maladies uniques (ou l’absence de ces maladies).
Références
Vous trouverez ci-dessous les ouvrages cités en référence dans cette ressource.
- Angwin, Julia et al. (2016). Machine Bias. ProPublica.
- Borgesius, Frederik Zuiderveen. (2018). Discrimination, artificial intelligence, and algorithmic decision-making. Council of Europe.
- Bostrom, Nick. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
- Council of Europe. (Adopted on 8 April 2020). Recommendation of the Committee of Ministers to Member states on the human rights impacts of algorithmic systems.
- Dada, Emmanuel et al. (2019). Machine learning for email spam filtering: review, approaches and open research problems. Heliyon 5(6).
- De Winter, Daniëlle, Lammers, Ellen & Mark Noort. (2019). 33 Showcases: Digitalisation and Development. Ministère néerlandais des affaires étrangères.
- Desierto, Diane. (2020). Human Rights in the Era of Automation and Artificial Intelligence. EJIL:Talk! Blog of the European Journal of International Law.
- European Commission. (2020). On Artificial Intelligence – A European Approach to Excellence and Trust. EJIL:Talk! Blog of the European Journal of International Law.
- Casteluccia, Claude & Daniel Le Métayer. (2019). Understanding algorithmic decision-making: Opportunities and challenges. European Parliamentary Research Service.
- Fang, Fei et al. (2016). Deploying PAWS: Field Optimization of the Protection Assistant for Wildlife Security. Compte rendu de la vingt-huitième conférence de l’AAAI sur les applications innovantes (IAAI-16).
- Feldstein, Steven. (2019). How artificial intelligence systems could threaten democracy. The Conversation.
- Frankish, Keith & William M. Ramsey, eds. (2014). The Cambridge Handbook of Artificial Intelligence (Manuel de Cambridge sur l’intelligence artificielle). Cambridge University Press.
- Friedman, Batya & Helen Nissenbaum. (1996). Bias in Computer Systems. ACM Transactions on Information Systems 14(3).
- Fruci, Chris. (2018). The rise of technological unemployment. The Burn-In.
- German Federal Government. (2018). Key Points for a Federal Government Strategy on Artificial Intelligence.
- Kassner, Michael. (2013). Search engine bias: What search results are telling you (and what they’re not). TechRepublic.
- Knight, Will. (2019). Artificial intelligence is watching us and judging us. Wired.
- Kumar, Arnab et al. (2018). National Strategy for Artificial Intelligence: #AIforAll. NITI Aayog.
- Lum, Kristian & William Isaac. (2016). To predict and serve?. Significance 13(5). Royal Statistical Society.
- Maini, Vishal. (2017). Machine learning for humans. Medium.
- Maxmen, Amy. (2018). Machine learning spots treasure trove of elusive viruses. Nature.
- Miller, Meg. (2017). This app uses AI to track mansplaining in your meetings. Fast Company.
- Mitchell, Tom. (1997). Machine Learning. McGraw Hill.
- Mohanty, Sharada P., Hughes, David P. & Marcel Salathé. (2016). Using Deep Learning for Image-Based Plant Disease Detection. Frontiers in Plant Science.
- Moisejevs, Ilja. (2019). Poisoning attacks on Machine Learning. Vers la science des données.
- Molnar, Petra & Lex Gill. (2018). Bots at the Gate. University of Toronto and Citizen Lab.
- Polli, Frida. (2019). Using AI to Eliminate Bias from Hiring. Harvard Business Review.
- Ridgeway, Andy. (2019). Deepfakes: the fight against this dangerous use of AI. BBC Science Focus Magazine.
- Russell, Stuart J. & Peter Norvig. (1995). Artificial Intelligence: A Modern Approach. Prentice Hall.
- Smith, Floyd. (2019). Case Study: Fraud Detection “On the Swipe” For a Major US Bank. mmSQL Blog.
- Stanford University. (2016). Artificial Intelligence and Life in 2030: Report of the 2015 Study Panel.
- Conférence des Nations unies sur le commerce et le développement (CNUCED). (2017). The Role of Science, Technology, and Innovation in Ensuring Food Security by 2030.
- World Commission on the Ethics of Scientific Knowledge and Technology (COMEST). (2017). Report of COMEST on Robotics Ethics. UNESCO and COMEST.
Ressources complémentaires
- A brief history of AI: donne une chronologie du développement de l’IA.
- Access Now. (2018). Human Rights in the Age of Artificial Intelligence.
- AI Myths: site web explorant les idées fausses autour de l’IA.
- Anderson, Michael & Susan Leigh Anderson. (2011). A prima facie duty approach to machine ethics: machine learning of features of ethical dilemmas, prima facie duties, and decision principles through a dialogue with ethicists. In: Anderson, Michael & Susan Leigh Anderson, eds. Machine Ethics. Cambridge University Press, pp. 476-492.
- Awwad, Yazeed et al. (2020). Exploring Fairness in Machine Learning for International Development. USAID, MIT D-Lab and MIT CITE.
- Caulfield, Brian. (2019). Five things you always wanted to know about AI, but weren’t afraid to ask. NVIDIA.
- Commotion Wireless. (2013). Warning Labels Development Part 1 and Part 2.
- Comninos, Alex et al. (2019). Artificial Intelligence for Sustainable Human Development. Global Information Society Watch.
- Council of Europe Human Rights Channel. How to protect ourselves from the dangers of artificial intelligence.
- Molnar, Petra. (2020). The human rights impacts of migration control technologies. European Digital Rights.
- Elish, Madeleine Clare & Danah Boyd. (2017). Situating methods in the magic of big data and artificial intelligence.
- Eubanks, Virginia. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. Macmillan.
- Fairness in Machine Learning and Health: website and resources on the 2019 conference.
- Feldstein, Steven. (2019). The Global Expansion of AI Surveillance. Carnegie Endowment for International Peace.
- Hager, Gregory D. (2017). Artificial Intelligence for Social Good. Association for the Advancement of Artificial Intelligence (AAAI) and Computing Community Consortium.
- Henley, Jon & Robert Booth. (2020). Welfare surveillance system violates human rights, Dutch court rules. The Guardian.
- Johnson, Khari. (2019). How AI can strengthen and defend democracy. VentureBeat.
- Latonero, Mark. (2018). Governing Artificial Intelligence: Upholding Human Rights & Dignity. Data & Society.
- Manyika, James, Silberg, Jake & Brittany Presten. (2019). What do we do about the biases in AI? Harvard Business Review.
- Mitchell, Melanie. (2019). Artificial Intelligence: A Guide for Thinking Humans. Macmillan.
- Müller, Vincent C. (2020). Ethics of Artificial Intelligence and Robotics. Stanford Encyclopedia of Ethics.
- Muro, Mart, Maxim, Robert & Jacob Whiton. (2019). Automation and artificial intelligence: How machines are affecting people and places. Brookings Institution.
- O’Neil, Cathy. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishers.
- Paul, Amy, Jolley, Craig & Aubra Anthony. (2018). Reflecting the Past, Shaping the Future: Making AI Work for International Development. USAID.
- Polyakova, Alina & Chris Meserole. (2019). Exporting Digital Authoritarianism. Brookings Institution.
- Resnick, Brian. (2019). Alexandria Ocasio-Cortez says AI can be biased. She’s right. Vox.
- Sharma, Sid. (2019). What is conversational AI?. NVIDIA.
- Tambe, Milind & Eric Rice, eds. (2018). Artificial Intelligence and Social Work. Cambridge University Press.
- Technology and Human Rights: Series of articles on this relationship from OpenGlobalRights.
- Upturn and Omidyar Network. (2018). Public Scrutiny of Automated Decisions: Early Lessons and Emerging Methods.