Les approximations et l’intelligence artificielle
Lorsque l’on parle d’intelligence artificielle, nombreuses approximations sont souvent commises. Entre automatisation, robotisation et intelligence artificielle, il existe de nombreuses distinctions entre les différents outils technologiques qui s’offrent à nous. Particulièrement dans le monde de l’assurance qualité logicielle, ces distinctions sont cruciales afin de savoir comment bien tester ces outils. Pour mieux nous aider à comprendre la réalité technologique de l’IA, notre Gestionnaire du service conseil -Patrick-Michel Dagenais- nous partage son expertise et son avis sur la question.
Les niveaux d’IA
Pour commencer, prenons un exemple que tout le monde connait : PAC MAN. Dans ce jeu internationalement connu, des fantômes essayent de vous attraper. Ces fantômes ne se déplacent pas au hasard sur la carte et chacun d’eux à des déplacements uniques. Le comportement des fantômes est généré par une IA ! Sans intervention de l’homme, une automatisation va gérer les décisions des fantômes. On trouve ici le 1er niveau des IA : effectuer une action simple à faire (déplacer le fantôme) de manière automatique. C’est un niveau basique mais qui permet de cerner une des bases de l’IA : l’action autonome.
Dans le deuxième niveau, les décisions sont prises en réaction à des facteurs prévus. Aucune situation n’est pas prévue dans le code de l’IA, et si jamais c’était le cas, l’IA ne pourrait pas inventer une solution à cette situation nouvelle. Dans ce deuxième niveau, l’IA est toujours dans une posture d’automatisation de ses actions et décisions mais elle a la capacité d’analyser son environnement et de réagir en conséquence. Pour exemplifier le propos, on pourrait prendre le cas d’une IA jouant aux échecs. Chaque coup joué va influencer la prochaine décision de l’IA. On retrouve ici une nouvelle base de l’IA : l’analyse contextuelle.
Au troisième niveau, nous ne sommes plus vraiment dans l’automatisation et l’action réflexe. On approche beaucoup plus de ce que la plupart des personnes ont en tête lorsque l’on parle d’IA. Dans ce niveau-là, le code ne prévoit pas l’ensemble des situations possibles ainsi qu’une réaction prévue. Au contraire, l’IA doit être capable d’agir seule, et ce dans n’importe quelle situation qu’elle pourrait rencontrer. Le code doit donc lui donner la possibilité de pouvoir prendre des décisions seule. L’exemple le plus récent de ce niveau d’IA est ChatGPT. On retrouve ici la dernière base de l’IA : la créativité décisionnelle.
Tester les IA
Jusqu’alors, nous avons observé des algorithmes capables de prendre des décisions à l’intérieur d’un parc de possibilités limité. On peut même aller jusqu’à dire que si un système produit un résultat qui ne fait pas parti d’une liste prédéterminée de réponses prévues est un échec en soit. La raison est simple: nous connaissons toutes les questions possibles, et seulement certaines réponses sont acceptables.
Ceci n’est pas le cas pour les intelligences artificiel dites progressives : l’algorithme devine le sens des questions envoyées et produit des réponses approximatives. La question de l’interlocuteur peut être mauvaise, l’interprétation de l’algorithme peut être fautive et les résultats pourraient aussi être faussés pour une foule de raisons possibles. On parle d’un système qui n’a pas de contraintes préétablies, et en plus, le même système est fluide – chaque réponse fournie est analysée une fois rendue, question de renforcer l’intelligence artificielle. Le même système que nous avons testé hier n’est pas nécessairement le même que nous allons tester aujourd’hui.
Comment tester une intelligence artificielle? Avec une autre intelligence artificielle? Comment pouvons-nous tester cette autre intelligence afin d’être sûr qu’elle effectue un travail?
La nature même de l’intelligence artificielle adaptive demande qu’on sorte de l’arène des prédéterminations. Voilà le prochain obstacle du monde AQ – Comment tester ce qui ne semble pas être testable.
Être remplacé par les IA ?
Aujourd’hui, les maladresses et les approximations qui entourent les intelligences artificielles sont souvent sources de panique et d’angoisse. Est-ce que les IA vont remplacer les êtres humains ? Oui et non, nous sommes très loin à l’heure actuelle de proposer des IA qui reproduisent le comportement humain avec exactitude. Cependant, la démocratisation de l’utilisation des IA, notamment avec ChatGPT, nous dirige de plus en plus vers un monde où les IA jouent un rôle d’accompagnateur pour les êtres humains. Reste à savoir quelle utilisation nous allons en faire…