Une nouvelle inquiétude règne autour de l’IA : une crise financière, engendrée par une adoption trop rapide et la série d’investissements impulsive du moment, serait inévitable selon plusieurs experts. Cette crise risque de pointer son nez dans quelques années seulement, à moins que de nouveaux règlements soient établis concernant l’usage de cette technologie dans divers secteurs (secteur financier y compris).
« Je pense que nous connaîtrons une crise financière à l’avenir », déclare le président de la SEC (Securities and Exchange Commission) Gary Gensler au Financial Times en évoquant ses préoccupations quant aux impacts de l’IA dans le secteur financier. Et ce n’est pas la première fois qu’il tire la sonnette d’alarme autour de ce sujet. Gensler estime qu’un krach financier est « presque inévitable » et qu’il pourrait se produire d’ici la fin de cette décennie ou le début des années 2030.
Si de telles préoccupations émergent, c’est parce que dans le secteur, la course à l’IA a déjà été lancée. Les institutions investissent massivement dans la technologie. À titre d’exemple, la banque américaine Morgan Stanley a récemment introduit un assistant basé sur le logiciel GPT-4 d’OpenAI. Cet outil, déjà en service, est utilisé par les conseillers financiers et le personnel de soutien de la banque. Par ailleurs, un autre établissement américain a déposé une demande de brevet pour un modèle d’IA destiné aux traders, également basé sur la technologie GPT.
Comment l’IA pourrait-elle être à la source d’une crise financière ?
L’adoption rapide de l’IA par les professionnels, y compris dans le secteur financier, n’est pas sans risque. Selon Gary Gensler, la dépendance à cette technologie est même l’un des principaux facteurs qui pourraient conduire à une crise. En effet, si les institutions financières dépendent fortement de l’IA sans une compréhension approfondie de ses mécanismes et risques associés, elles pourraient être menées à prendre de mauvaises décisions.
Gensler a également évoqué la fiabilité des modèles d’IA sur lesquels les institutions financières s’appuient. Si ces outils se basent sur des données inexactes, les résultats peuvent induire en erreur. Or, dans un contexte financier, de telles défaillances peuvent avoir des conséquences lourdes. Une problématique qui serait d’ailleurs accentuée si plusieurs institutions utilisent le même modèle défectueux.
Autre problème : le système réglementaire actuel est conçu pour superviser des institutions individuelles plutôt que le système financier dans son ensemble. Par conséquent, si un modèle d’IA particulier pose un risque systémique, le cadre réglementaire actuel pourrait ne pas être équipé pour le gérer efficacement.
Finalement, particuliers et entreprises investissent à ce jour massivement dans l’IA, levant des fonds à tout va, parfois sans prendre le temps d’étudier minutieusement les risques. Nombre de ces projets iront inéluctablement à perte, engendrant à terme une augmentation de la dette globale.
Appel à la réglementation
Reconnaissant les risques associés à l’utilisation de l’IA dans le secteur financier, Gensler plaide pour la mise en place de réglementations spécifiques à cette technologie. Les règles seraient destinées à assurer une utilisation sécurisée, éthique et transparente de l’IA, minimisant ainsi les risques de défaillances ou d’abus.
Pour Gensler, il faudrait surtout se pencher sur la façon dont la technologie est construite. Il évoque également l’importance de surveiller la manière dont ces outils sont utilisés par les acteurs financiers. Par ailleurs, il avance que la régulation de l’IA dans le secteur financier aurait besoin d’une approche interdisciplinaire, car elle ne relève pas d’une seule autorité. Elle nécessiterait donc selon lui une coordination entre différents organismes de réglementation issus d’une part de la filière de la technologie et d’autre part du secteur financier.