Technologie
Le département de l’emploi de l’État du Nevada a annoncé qu’il allait recourir à l’intelligence artificielle pour accélérer le processus d’appel des demandes de chômage en analysant les transcriptions des audiences d’appel et en émettant des recommandations de décision.
Depuis le début de la pandémie, le département a été submergé par un important arriéré de demandes et cherche désespérément des solutions pour rétablir la situation.
Il a également précisé qu’il n’entraînerait pas un nouveau modèle d’IA générative pour ce système, mais qu’il utiliserait plutôt le studio Vertex AI de Google, ce qui devrait réduire le temps de révision de plusieurs heures à seulement cinq minutes. Cependant, de nouvelles recherches suggèrent que les modèles d’IA sont généralement moins performants que les humains pour résumer des documents et peuvent souvent engendrer un travail supplémentaire pour les employés.
Résoudre l’arriéré
Des experts mettent en garde contre cette approche, non seulement parce que les modèles de langage de grande taille ne comprennent pas le texte ni ne raisonnent logiquement comme le font les humains, mais aussi parce que cela pourrait ne pas faire gagner beaucoup de temps au département.
« Si quelqu’un examine quelque chose de manière approfondie et correcte, il ne gagne vraiment pas beaucoup de temps », a souligné Morgan Shah, directeur de l’engagement communautaire pour Nevada Legal Services. « À quel moment crée-t-on un environnement où les gens sont incités à prendre des raccourcis ? »
L’absence de précision dans le modèle préoccupe les avocats de Nevada Legal Services, qui évoquent les « hallucinations » de l’IA, un terme utilisé dans l’industrie pour décrire les situations où un modèle d’IA produit des réponses factuellement incorrectes ou trompeuses.
Toute décision prise par l’IA sera également vérifiée par un arbitre humain avant d’être rendue, mais si cet arbitre se base sur une hallucination de l’IA, un tribunal pourrait ne pas être en mesure d’annuler la décision.
La célèbre citation d’IBM vient à l’esprit : « un ordinateur ne peut jamais être tenu responsable, donc il ne doit jamais prendre de décision de gestion ». Des recherches montrent que beaucoup d’entre nous restent très méfiants vis-à-vis de l’IA, en particulier dans des domaines à haut risque (comme les diagnostics médicaux et les véhicules automatisés). Le succès de cette expérience pourrait avoir des répercussions sur un large éventail de départements gouvernementaux à l’avenir.