Comment contrôler les données en vue d’une utilisation pour une intelligence artificielle ?
Connaître le LLM
Un LLM encode les données fournies (transformer) et les découpe en séquence (tokens).
Chaque LLM a son propre système d’encodage et de découpage.
Il convient de connaître les spécificités du modèle utilisé. Par exemple, ChatGPT peut idéalement traiter des ensembles de 3000 mots.
Structurer la donnée
Pour préparer la donnée en vue d’une utilisation par une intelligence artificielle, la première règle est de la structurer.
Par exemple, un document Word peut être structuré avec un plan utilisant des styles différents pour les différents niveaux d’intitulé (titre de niveau 1, 1.1., 1.1.1…) avec des paragraphes de 1000 à 2000 mots selon le langage utilisé pour favoriser son encodage par ChatGPT.
Structurer revient à découper le document pour aider le LLM.
Lier la donnée
Pour préparer la donnée en vue d’une utilisation par une intelligence artificielle, la deuxième règle est d’établir des liens entre les données.
Par exemple, un document Word peut contenir de renvois interne d’un sujet à un autres.
Etablir des liens entre les données atténue le découpage par nature artificiel appliqué en règle n° 1.
Documenter la donnée
Pour préparer la donnée en vue d’une utilisation par une intelligence artificielle, la troisième règle est de documenter la donnée.
Par exemple, un document Word cite les sources de façon claire dans des notes de bas de page ou dans une bibliographie.
Qu’est-ce que l’AI Act ?
L’AI Act est une réglementation européenne qui a pour objectif de réguler les usages de l’intelligence artificielle pour protéger les droits fondamentaux des européens.
L’AI Act est discuté depuis 2021 et fait l’objet d’une mise en application progressive à partir de 2024.
L’AI Act classe les systèmes en quatre catégories de niveaux de risques d’inacceptable (par exemple, le scoring social ou l’identification biométrique en temps réel dans les espaces publics ou le recrutement uniquement par l’IA ou la gestion des infrastructures critiques) à minimum en passant par système avec une obligation de transparence.
L’AI Act est une réglementation appliquant des d’audit et/ou de contrôles et/ou de marquages et/ou d’autorisations a priori et/ou a posteriori pour contingenter les risques d’utilisation de l’intelligence artificielle.
A la différence du RGPD, l’AI Act distingue les modalités d’application en fonction de la taille et de l’ancienneté des entreprises pour favoriser les jeunes pousses par rapport aux multinationales.
L’AI Act fait une exception pour la recherche. Tant que l’intelligence artificielle n’est pas en production, il est possible de créer et de tester des innovations.
Qu’est-ce que l’intelligence artificielle responsable ?
L’intelligence artificielle responsable (RAI) est un programme de recherche permettant de garantir la sécurité et l’équité dans les systèmes d’intelligence artificielle. Il s’agit d’une boite à outils reposant sur 3 piliers.
Il n’existe pas d’ensemble standard de mesures d’évaluation de la RAI. Il n’y a pas de critères universels pour créer une intelligence artificielle de confiance, car la confiance est subjective et peut varier d’une personne à l’autre.
3 critères pour une IA de confiance
Une intelligence artificielle peut inspirer confiance si :
- Conformité et robustesse : elle sécurise les erreurs et les incohérences dans les données d’entrée et évite les fuites de données.
- Durabilité : elle limite son impact environnemental.
- Éthique et explicabilité : elle produit un résultat précis et explicable prenant en compte les conséquences de ses actions sur les personnes et l’environnement (éthique).
Conformité et robustesse
La déontologie de l’intelligence artificielle fait référence au respect :
- Des directives, des réglementations et des normes éthiques établies pour :
- Éviter les conséquences juridiques telles que des amendes pouvant aller jusqu’à 30 millions d’euros,
- Etablir la confiance avec les parties prenantes en démontrant l’engagement envers des pratiques éthiques ;
- Dans le développement et le déploiement de systèmes d’intelligence artificielle.
Durabilité
Une évaluation des effets de l’intelligence artificielle sur l’atteinte des Objectifs de développement durable (ODD) passe notamment par la prise en compte dans les usages de l’empreinte carbone résultant de la phase de formation des modèles d’intelligence artificielle.
Éthique et explicabilité
Il est crucial de favoriser la traçabilité du processus qui sous-tend la prise de décision par une intelligence artificielle. L’algorithme peut être transparent sur la finalité de son utilisation. Il est plus complexe de dire pourquoi l’intelligence artificielle a pris telle décision ou a fait tel choix.
Il existe des moyens pour extraire même en partie la logique de l’algorithme :
- Avant l’entraînement,
- Pendant l’entraînement et
- Une fois que l’algorithme est entraîné.
L’éthique de l’intelligence artificielle résulte d’un dialogue entre l’efficacité technologique procurée par l’intelligence artificielle et l’impartialité entre divers groupes de personnes.
L’intelligence artificielle générative peut :
- Donner un état du niveau d’éthique des données et
- Fournir des recommandations ciblées sur les faiblesses potentielles en matière de justice et d’équité des modèles d’intelligence artificielle.
En conclusion, la confiance en une intelligence artificielle peut être évaluée en fonction de critères tels que la transparence, la précision, l’éthique, la sécurité et la robustesse.
Ces critères peuvent varier d’une personne à l’autre, mais ils peuvent offrir un cadre commun pour évaluer la confiance en une IA.
L’outil pour l’intelligence artificielle responsable est conçu autour des 3 piliers fondamentaux :
- La conformité et la robustesse,
- La durabilité
- L’éthique et l’explicabilité.
Accédez à notre bibliothèque d’articles pour découvrir plus de contenus inspirants.
