Avec un problème sur le thème de la cybersécurité, le Willem C. Vis International Commercial Arbitration Moot (Vis Moot) de cette année établit de manière appropriée de nouvelles règles concernant l’utilisation des outils d’intelligence artificielle (IA) dans la compétition.
Introduit par une vidéo générée par l’IA par le professeur Christopher Kee (l’un des trois directeurs du Vis Moot), les nouvelles règles du Vis Moot n’interdisent pas purement et simplement l’IA de la compétition. Au lieu de cela, reflétant le sentiment de 63 % des praticiens de l’arbitrage dans une enquête récente par notre société, BCLP, sur l’utilisation de l’IA dans l’arbitrage international, les nouvelles règles cherchent à réglementer l’utilisation de l’IA. Ils autorisent son utilisation à des fins de recherche, de traduction et de relecture, tout en exigeant la divulgation et en interdisant strictement aux étudiants de soumettre des textes générés par l’IA.
Ce blog examine les nouvelles règles du Vis Moot à la lumière des tendances actuelles et du sentiment de l’industrie, comme en témoignent les résultats de l’enquête de BCLP. À mesure que les outils d’IA seront perfectionnés et développés, ils joueront un rôle de plus en plus important dans la pratique du droit et dans l’arbitrage international. Cependant, le potentiel de l’IA à accroître l’efficacité comporte son propre ensemble de risques et de problèmes. Le 31 prochainSt Le Vis Moot sera le premier « véritable » test des utilisations réglementées de l’IA dans l’arbitrage international et la manière dont le Vis Moot, ses arbitres et les étudiants participants abordent les risques et les problèmes associés sera instructif à mesure que la communauté de l’arbitrage international adopte et cherche à réglementer l’IA dans pratique.
Les nouvelles règles du Vis Moot et l’adoption de l’IA en pratique
Les nouvelles règles du Vis Moot régissant l’IA se composent de trois parties :
Il existe d’abord une liste exclusive d’utilisations autorisées de l’IA, qui comprend notamment «[u]chanter l’IA pour générer des aperçus ou des briefings sur des sujets factuels et juridiques pertinents […] utilisé uniquement pour la propre compréhension de l’équipe« . Deuxièmement, les règles interdisent expressément la soumission de texte généré par l’IA et la formation d’outils d’IA avec le problème Vis Moot. Troisièmement, les équipes sont tenues de divulguer leur utilisation de l’IA sous une forme annexée aux règles.
Selon l’explication du Vis Moot, ces nouvelles règles représentent un compromis entre l’intérêt académique de «veiller à ce que les étudiants continuent à développer leurs compétences» au concours et une reconnaissance de «le potentiel de l’IA, sa pertinence pratique dans la profession juridique ainsi que les risques associés à cette technologie« . Dans cette optique, l’interdiction stricte des nouvelles règles contre la soumission de textes générés par l’IA semble être une ligne rouge tracée pour sauvegarder la nature académique du concours.
Laissant de côté la question de savoir si une telle interdiction devrait être en place pour des raisons académiques, dans la pratique, la communauté de l’arbitrage est divisée sur l’adoption de l’IA, notamment en ce qui concerne l’utilisation de textes générés par l’IA dans les arguments juridiques. Un peu plus de la moitié des personnes interrogées (53 %) à l’enquête de BCLP estiment que les outils d’IA ne devraient pas être utilisés pour générer du texte dans des présentations juridiques. Il convient de noter que les personnes interrogées sont plus à l’aise et ne s’opposent pas à l’utilisation d’outils d’IA pour la génération de résumés factuels (73 %), pour l’analyse de documents (65 %) et pour détecter si l’IA a été utilisée pour générer du texte. , images, documents et preuves (80 %).
Cette appréhension à l’égard de l’adoption de l’IA à des fins juridiques pourrait être liée au manque de confiance actuel de la communauté dans la compréhension du fonctionnement des outils d’IA, en particulier des outils d’IA générative. Jusqu’à 69 % des répondants à l’enquête de BCLP ont évalué leur confiance à cinq sur dix ou moins. De plus, bien sûr, l’utilisation d’outils d’IA comporte également des risques réels, avec le récent récit édifiant d’un avocat de New York soumettant au tribunal un texte et une jurisprudence fictive générée par ChatGPT sans vérification.
Cependant, ces problèmes actuels liés à l’IA générative ne semblent pas insurmontables. D’un point de vue technologique, l’opinion selon laquelle les problèmes de cohérence et de fiabilité seront bientôt résolus ou à tout le moins atténués à un niveau comparable à la cohérence et à la fiabilité du texte généré par l’homme n’est pas controversée. En pratique, les problèmes actuels de cohérence et de fiabilité peuvent déjà être atténués par un examen humain ; les avocats expérimentés peuvent et doivent évidemment réviser les textes générés par l’IA, tout comme ils le font déjà avec les travaux préparés par les membres juniors de leurs équipes, dans le respect de leurs devoirs professionnels et éthiques.
Les économies de temps et d’argent considérables ainsi que l’avantage concurrentiel qui résulteront d’une utilisation responsable de l’IA ne peuvent être ignorés. Au plus haut point, il existe un potentiel évident pour les outils d’IA, à mesure qu’ils sont perfectionnés et développés, pour permettre un niveau d’accès à la justice beaucoup plus élevé que jamais pour le grand public. Même aujourd’hui, avec leurs défauts et problèmes actuels, les outils d’IA offrent un réel avantage concurrentiel et sont déjà utilisés dans la pratique par des parties disposant de ressources suffisantes et leurs avocats (avec 28 % des répondants à l’enquête de BCLP ayant utilisé ChatGPT, et une partie importante des répondants ayant utilisé d’autres outils d’IA pour effectuer des tâches, telles que la production de documents, la traduction et le formatage de texte, dans un contexte professionnel). Dans la pratique, le taux d’utilisation va très probablement augmenter et il semble inévitable que l’IA joue un rôle important dans l’arbitrage international.
Problèmes préfigurants dans la pratique – difficultés réglementaires et inégalités en matière d’armements
Le Vis Moot choisit d’autoriser expressément l’utilisation d’outils d’IA pour la recherche, en particulier pour la génération de «des aperçus ou des séances d’information sur des sujets factuels et juridiques pertinents […] utilisé uniquement pour la propre compréhension de l’équipe« . Ce choix s’est peut-être accompagné de la prise de conscience que les équipes disposant de ressources suffisantes auront une « longueur d’avance » dans l’accès aux ressources d’IA, en particulier aux outils d’IA spécialisés qui pourraient être formés pour de meilleures performances (en d’autres termes, ces outils pourraient « lire » à une affaire). Une telle prise de conscience expliquerait certainement l’interdiction de la formation d’un outil d’IA avec le problème Vis Moot, en plus du besoin plus banal de protéger la propriété intellectuelle du Vis Moot. Quoi qu’il en soit, cette interdiction semble difficile à mettre en œuvre dans la pratique et, en tout état de cause, pourrait ne pas atténuer pleinement l’inégalité des armes entre des étudiants ayant des niveaux différents de ressources, de savoir-faire et d’accès aux dernières technologies.
Difficultés réglementaires
On ne sait pas exactement dans quelle mesure une interdiction de la formation aux outils d’IA pourrait être respectée ou appliquée. Il peut être difficile en pratique de faire la distinction entre la formation d’un outil d’IA sur des questions spécifiques, d’une part, et le référencement à des scénarios factuels pertinents ou comparables dans une requête ou une requête adressée à un outil d’IA, d’autre part. De plus, les outils d’IA ayant accès à Internet ont déjà une vision du problème Vis Moot (comme le nouveau Bing de Microsoft alimenté par ChatGPT) et ces outils pourraient expliquer le problème Vis Moot même s’ils n’y sont pas invités par les étudiants dans leurs requêtes. . Il ne semble pas que le Vis Moot cherche à interdire l’utilisation de tels outils.
Avec le développement rapide du paysage de l’IA, il y aura bien sûr des incertitudes quant à l’endroit où se situent réellement les lignes rouges et la question ci-dessus de la formation aux outils d’IA n’est que la pointe de l’iceberg. Le Vis Moot semble reconnaître de telles incertitudes, en fournissant une colonne « incertain » dans son formulaire de divulgation sur l’IA. Il va sans dire que les régulateurs seront confrontés à des problèmes similaires dans la pratique, et la manière dont les organisateurs, les arbitres et les étudiants du Vis Moot aborderont ces incertitudes dans la compétition sera instructive.
Inégalité des armes
Dans tous les cas, même si une interdiction de formation aux outils d’IA peut être mise en œuvre, les étudiants ayant accès à de meilleurs outils d’IA spécialement conçus pour la pratique du droit et au savoir-faire requis bénéficieront d’un avantage, sans doute injuste, par rapport aux étudiants qui ne peuvent pas accéder ou utiliser les outils d’IA générative les plus répandus disponibles au grand public (par exemple ceux de Chine, de Syrie, du Venezuela, etc. où ChatGPT n’est pas pris en charge). Cela pourrait exacerber davantage les problèmes d’égalité des armes déjà existants dans le Vis Moot et, sous réserve de l’ampleur de l’adoption de l’IA dans le Vis Moot et dans la pratique de l’arbitrage international, pourrait constituer un élément important perpétuant le problème.
Il n’est pas difficile de voir comment cet aspect inégal des armes dans l’utilisation de l’IA se traduira dans la pratique de l’arbitrage international, en particulier pendant une période de transition probable où les outils d’IA générative accessibles au public restent imparfaits et une IA spécialisée meilleure, plus précise, cohérente et fiable. les outils sont développés et utilisés par les parties et les avocats disposés à investir dans de telles ressources. De grands cabinets d’avocats internationaux utilisent déjà des outils d’IA hautement spécialisés pour la production de documents et à d’autres fins, et développent également des outils d’IA générative spécialisés pour la pratique juridique. Il sera intéressant de voir à quel point l’inégalité des armes entre les étudiants sera apparente lors du concours et comment les organisateurs, les arbitres et les étudiants du Vis Moot aborderont cette question.
Conclusion
Il est évident que le Vis Moot prend une position de leader dans ce qui est encore une question largement non réglementée dans l’arbitrage international. Considérées à la lumière de l’enquête BCLP, les nouvelles règles du Vis Moot reflètent le sentiment actuel de l’industrie sur l’utilisation de l’IA et le 31St Vis Moot sera le premier « vrai » test des utilisations réglementées de l’IA dans l’arbitrage international.
Que ces nouvelles règles soient ou non un succès, les discussions en cours et les leçons à tirer de la concurrence sur l’utilisation de l’IA dans l’arbitrage international trouveront leur place dans les ordonnances procédurales et autres formes d’orientations « soft law » en 2024.