L’Intelligence Artificielle : Une idée déjà explorée dans un roman de 1818
Frankenstein de Mary Shelley publié en 1818 anticipe des problématiques contemporaines liées à l’intelligence artificielle en mettant en scène une créature fabriquée par un humain qui acquiert une conscience par apprentissage et par observation.
La narration du roman décrit un apprentissage par observation et accumulation d’expériences comparable aux processus actuels d’entraînement de modèles. La créature apprend en épier une famille exilée dans les montagnes suisses, découvre le langage et formule des revendications morales à l’égard de son créateur. Ces éléments alimentent les débats contemporains sur la responsabilité des concepteurs et sur la gestion des systèmes dont les décisions restent opaques.
Intelligence Artificielle et héritage littéraire de 1818
La figure de la créature met en relief deux tensions actuelles pour les acteurs suisses. D’une part la nécessité de documenter les procédés d’apprentissage et les jeux de données pour réduire l’opacité des modèles. D’autre part la question de la réception sociale des systèmes conscients ou anthropomorphes et du risque de rejet qui peut conduire à des comportements indésirables.
Pour les centres de recherche comme ETH Zurich et EPFL, le récit souligne l’importance des protocoles d’expérimentation et des dispositifs d’encadrement éthique dès la conception. Pour les entreprises utilisatrices et les startups, illustrées ici par la société fictive HelveticAI basée à Lausanne, l’exigence porte sur des garanties de traçabilité, d’auditabilité et de gestion des risques opérationnels.
Conséquences réglementaires et industrielles en Suisse
Les autorités fédérales et les agences compétentes doivent concilier protection des données et soutien à la recherche. Le Secrétariat d’Etat à la formation, à la recherche et à l’innovation SEFRI, le Fonds national suisse FNS et Innosuisse financent des projets où la gouvernance algorithmique figure désormais parmi les critères d’évaluation.
Le Préposé fédéral à la protection des données et à la transparence PFPDT attire l’attention sur la provenance des données et sur la nécessité d’études d’impact. Les entreprises suisses exportatrices font face à la pression des autorités européennes, les débats autour du règlement européen sur l’IA influencent les exigences contractuelles et les politiques de conformité.
Les points d’attention identifiés concernent la souveraineté des données, la documentation des chaînes d’entraînement, la prévention des biais et la définition des responsabilités contractuelles envers les fournisseurs de cloud. La tension entre innovation académique et obligations de transparence demeure un enjeu opérationnel concret pour les équipes de développement et les décideurs publics.