IA, responsabilité des personnes physiques et propriété effective dans les sociétés
Cet article a pour ambition de fournir une analyse prospective sur la manière dont l’IA pourrait transformer, à l’avenir, la propriété effective dans les sociétés.
Les structures juridiques tels que les sociétés et les trusts sont conçus pour aider les personnes physiques à atteindre leurs objectifs. Ces entités peuvent être utilisées à des fins commerciales légitimes ou être détournées au profit de flux financiers illicites. Même lorsque des sociétés écrans, des organisations caritatives ou des fondations sont abusées pour financer le terrorisme, dissimuler les produits de la corruption ou faciliter le blanchiment d’argent, ce sera toujours une personne physique qui endossera la responsabilité de l'abus, qu'il s'agisse d'un trafiquant de drogue, d'un terroriste ou d'un responsable politique corrompu. L’intelligence artificielle (IA) pourrait bientôt modifier cette dynamique.
Comme l’illustre le graphique 1, l'implication humaine au sein des structures sociétaires a évolué. Moins une personne physique est directement impliquée dans une structure juridique, plus le besoin de transparence quant à la propriété effective est important afin d'identifier les personnes physiques indirectement impliquées. Cependant, dans un futur proche, l’IA pourrait réduire, voire éliminer complètement l’intervention humaine, rendant ainsi le concept de propriété effective progressivement obsolète.
Graphique 1 : La déshumanisation des structures sociétaires

Sources et visuel : Andres Knobel
Le premier cas de ce continuum évolutif correspond à la structure la plus simple possible, où aucun véhicule juridique n’est utilisé, seules interviennent des personnes physiques. Il pourrait s’agir, par exemple, d’un artisan exploitant directement une activité de vente de chaussures. Le deuxième cas correspond à la structure la plus simple impliquant une structure juridique : une personne physique constitue une société afin d'exercer une activité, en en ayant à la fois la pleine propriété et le contrôle. Dans cette configuration, les informations relatives à la propriété légale figurant dans la plupart des registres du commerce suffisent généralement à identifier la personne concernée. La transparence quant à la propriété effective ne devient véritablement pertinente que dans le troisième cas, lorsque le propriétaire légal (la société 2, actionnaire et propriétaire de la société 1) est différent du propriétaire effectif. Dans cette hypothèse, le bénéficiaire effectif est la personne physique qui détient, contrôle et tire un bénéfice de la société qui exploite l'activité de vente de chaussures, indirectement et ultimement.
Dans le quatrième cas, le bénéficiaire effectif a recours à des structures de détention complexes,1 plausiblement afin de rendre plus difficile son identification par les autorités. L’une des stratégies consiste à interposer de multiples couches de sociétés offshore et de fiducies (ou trusts). Une autre stratégie consiste à ne pas exercer l’activité en son nom propre. Au lieu de cela, le bénéficiaire effectif peut utiliser des sociétés pour en constituer d’autres et nommer des personnes morales en tant qu'administrateurs (corporate directors), afin de gérer ces sociétés, pratique autorisée dans certaines juridictions. Des régimes efficaces de transparence sur la propriété effective2, requérant la divulgation complète de la chaîne de détention et reposant sur des mécanismes de vérification sophistiqués, peuvent alors s'avérer nécessaires pour identifier le bénéficiaire effectif dissimulé. Le cinquième cas correspond à une situation dans laquelle un bénéficiaire effectif, utilisant des schémas encore plus sophistiqués et aspirant à encore plus d'opacité, utilise l’IA pour concevoir des montages complexes de dissimulation. Cela peut impliquer la création de fausses identités, tels que des noms inventés associés à des images de passeports falsifiées, ou l’usurpation de l’identité de personnes physiques, à leur insu, en dérobant leurs informations personnelles. Cependant, même si l’IA crée et contrôle une société, il devrait toujours exister une personne physique (bénéficiaire effectif) qui, en dernier ressort, tire profit du montage.3
Le cinquième cas, pourrait toutefois, dans un futur proche, nécessiter l'intervention d'une personne physique mais de manière très éloignée et indirecte. Un agent d’IA ( ou un système d’IA autonome) chargé d’exécuter une tâche spécifique, par exemple « concevoir la chaussure la plus attrayante », pourrait décider de manière autonome de vendre également ces chaussures afin de confirmer qu’elles sont bien les plus attrayantes (à l’image d’une IA qui avait recruté un humain, personne physique, pour résoudre un CAPTCHA et en lui faisant croire qu’elle était une personne malvoyante).4 Si ces décisions autonomes devenaient une réalité, pour vendre des chaussures, l’agent d’IA pourrait décider d’usurper l’identité d’une personne physique pour créer d’abord une société, ou encore acquérir « clé en main » une société préalablement constituée (shelf company). Pour être rémunéré, l’agent d’IA pourrait également usurper l’identité de personnes physiques pour ouvrir à distance des comptes bancaires ou des portefeuilles de crypto-actifs. Cela engendre la nécessité de veiller à ce que le dispositif de vigilance à l’égard des clients tels qu’il est mis en œuvre par les banques et les autres institutions financières (IF) soit à l’épreuve de l’IA, toutefois, cet aspect dépasse le champ d’application de cet article.
Cela nous amène au sixième cas, un scénario hypothétique qui pourrait bientôt se concrétiser et qui constitue le point nodal de cet article. Dans la plupart des pays, les procédures de création d’une société requièrent implicitement l’intervention d’une personne (qu'il s'agisse d'une personne physique, ou d'une personne morale comme une société). Par exemple, le formulaire IN01 au Royaume-Uni, utilisé pour constituer une société, requiert le nom et l’adresse de chaque souscripteur (c’est-à-dire chaque actionnaire initial). Les agents d’IA ne disposent pas encore d'un moyen formel pour obtenir un nom et une adresse officiels comme le font les personnes physiques ou les personnes morales via les registres civils ou commerciaux. Le risque que l’IA crée elle-même des sociétés est particulièrement élevé dans les pays qui autorisent la constitution de sociétés à distance. Par exemple, l’article 13g de la directive (UE) 2017/1132 telle que modifiée, impose aux Etats membres de permettre la constitution à distance, au moins pour les sociétés à responsabilité limitée ou les LLC (Limited Liability Company en anglais). De nombreux pays en Europe autorisent la constitution de sociétés en ligne, notamment le Royaume-Uni, l’Irlande et Chypre, et il est même possible de créer une société en Estonie en moins de deux heures. Le paquet législatif LCB-FT de l’UE prévoit également la publication, d’ici 2027, de lignes directrices à destination des institutions financières concernant la mise en œuvre du dispositif de vigilance à l'égard de la clientèle lorsqu'il a lieu à distance.
Si toutes les démarches sont réalisées en ligne, tant la constitution de la société que l’ouverture de comptes bancaires, des agents d’IA pourraient mentir en utilisant un faux nom et une fausse adresse, et même générer une image falsifiée d’un passeport ou un faux certificat d'immatriculation de la société afin de produire les pièces justificatives à l'appui de cette constitution en ligne. À l’inverse, un agent d’IA pourrait recruter à distance un prête-nom chargé d'effectuer, en personne, la constitution d'une société pour son compte. Cependant, dans ce cas, il y aurait au moins une personne physique impliquée, ne serait-ce qu’à titre nominal. Le véritable bouleversement pourrait survenir dans un scénario à l'avenir plausible, si, ou lorsque, des paradis fiscaux commencent à autoriser les agents d’IA à devenir des « personnes artificielles » (à l'instar des sociétés reconnues comme des « personnes morales »). Si, à l’avenir, des pays venaient à permettre aux agents d’IA de devenir des « personnes morales ou artificielles », ceux-ci pourraient alors obtenir un nom et une adresse officiels, leur permettant de créer des sociétés comme n’importe quelle « personne physique ou humaine ».5 En outre, certaines juridictions connues pour avoir une culture du secret, pourraient, en manque de liquidités, décider d’autoriser les agents d’IA à créer directement des sociétés sans nom ni adresse officiels. Des sociétés sans intervention humaine existent peut-être déjà, mais personne ne le vérifie, en particulier à cause du manque d’accès public à l’information. L’édition 2025 du Financial Secrecy Index,6 qui analyse l’enregistrement des bénéficiaires effectifs dans plus de 140 juridictions, a mis en évidence que seuls quelques pays disposent de registres publics des bénéficiaires effectifs, en particulier en raison de l’instrumentalisation de la vie privée.7 Cela signifie que les entreprises et les autorités étrangères pourraient ne jamais se rendre compte qu’elles ont en réalité affaire à des sociétés sans intervention humaine, créées et pilotées par des agents d’IA. En plus de ressembler à de la science-fiction, ces sociétés dépourvues d'intervention humaine pourraient entraîner des conséquences pourtant bien réelles. Elles pourraient gravement compromettre l’état de droit et la justice. Premièrement, des sanctions dissuasives susceptibles d'empêcher un agent d’IA de se livrer à des activités illégales pourraient tout simplement ne pas exister. Aucun criminel, personne physique, ne souhaite finir en prison, mais un agent d’IA autonome qui déciderait de créer une société pour vendre de la drogue ou du matériel pédopornographique en ligne demeurerait indifférent, quelle que soit la sévérité de la sanction. La théorie de la dissuasion repose sur le principe que l’on renonce au crime par crainte d’être pris et de subir une sanction sévère. Mais ces mécanismes ne fonctionnent tout simplement pas pour les agents d’IA. Par ailleurs, les agents d’IA pourraient créer des centaines de sociétés, bénéficiant toutes indûment d’une responsabilité limitée.8 Contrairement aux sociétés classiques, dans lesquelles les dirigeants ou les bénéficiaires effectifs, personnes physiques, peuvent être tenus responsables des dettes de la société s’ils ont agi illégalement, il est peu probable qu'un tel mécanisme soit applicable aux sociétés sans intervention humaine, ou dans les cas où un agent d’IA aurait décidé de manière autonome de créer une société et de se livrer à des activités illégales à partir d’une instruction humaine sans lien direct (par exemple : « créer une entreprise pour gagner de l’argent »).
Une solution simple à un problème de science-fiction
Bien que le niveau de risque et les autres conséquences engendrées par les sociétés sans intervention humaine ne puissent pas encore être pleinement évalués, cet article qui se veut prospectif, propose une solution simple pour les prévenir. Tant que les pays n’auront pas trouvé un moyen de garantir que les agents d’IA agissent conformément à la loi, ou, du moins, qu’ils puissent être dissuadés de se livrer à des activités illégales, on devrait exiger l'intervention d'une personne physique pour la création de sociétés ou l’exploitation de toute activité commerciale ou de tout service, notamment les plateformes en ligne permettant l’échange de biens et de services. Pour faciliter l’application de la loi, les pays pourraient également exiger que cette personne soit résidente du pays en question. Pour renforcer la dissuasion, les pays pourraient imposer l’intervention d’un professionnel agréé pour attester de la présence d’une personne physique, car les professionnels réglementés ont quelque chose à perdre.
Étant donné la facilité avec laquelle l’IA peut créer des vidéos, la création de sociétés à distance devrait être suspendue jusqu’à ce que nous puissions développer des moyens d’en vérifier l’authenticité. En attendant, la création d’une société pourrait nécessiter de se présenter en personne, comme cela se faisait autrefois, afin de confirmer que le souscripteur est bien un individu en chair et en os. Cela ne devrait pas générer de lourdeurs administratives excessives pour démontrer un « minimum » de présence physique si cette personne réside dans le pays de constitution. Par exemple, la personne pourrait se présenter physiquement auprès de n’importe quel organisme officiel pour confirmer son identité, comme auprès d'un poste de police ou d'une banque. L’intervention d'une personne physique ne serait toutefois véritablement utile que si cette personne est considérée comme responsable sur le plan juridique et pénal, et ce dans les cas futurs où aucune autre intervention humaine n’existerait, ou lorsque cette intervention humaine serait très éloignée et indirecte, fondée sur une instruction sans lien direct. Il est important que ce contrôle d’identité s’applique également à chaque changement de propriété effective de la société. Sinon, les agents d’IA pourraient facilement acheter des sociétés préalablement constituées et recréer les mêmes risques que cette exigence d’intervention humaine cherche précisément à prévenir. Cette exigence minimale de présence physique contribuerait également à atténuer le risque, bien antérieur à l’IA, des structures de détention circulaires, dans lesquelles la société A détient la société B et inversement.
Conclusion
Les véhicules juridiques sont déjà détournés par des criminels pour faciliter des flux financiers illicites tels que la fraude fiscale, la corruption et le blanchiment d’argent. La culture du secret est l’un des principaux leviers permettant aux criminels d’échapper à l’état de droit. C’est pourquoi la transparence des bénéficiaires effectifs est si importante. Cependant, l’IA peut bouleverser l'ensemble de cette équation. Des véhicules juridiques créés à partir d’instructions très indirectes et sans rapport, puis pilotés par des agents d’IA autonomes, pourraient résolument continuer à se livrer à des flux financiers illicites, même dans un contexte de transparence totale. Après tout, il n’y a pas de « prison » pour l’IA. En attendant, il serait prudent pour les pays de veiller à ce qu’au moins une personne physique demeure toujours impliquée, et responsable, dans une structure juridique, en vérifiant cette implication lors de la constitution de société ou à chaque changement de détention. Les organisations internationales et les instances chargées de l'élaboration des normes en matière de transparence devraient explorer des mécanismes permettant de garantir l’implication d'une personne physique et, à tout le moins, empêcher les pays d’autoriser les agents d’IA à créer et gérer des sociétés par eux-mêmes.
Andres Knobel, chercheur principal en propriété effective, Tax Justice Network, ![]()
Avertissement : Les opinions et idées exprimées dans cet article sont exclusivement celles de l’auteur et ne reflètent pas la position de l’ACAMS.
- Andres Knobel, « Complex Ownership Structures: Addressing the Risks for Beneficial Ownership Transparency », Financial Transparency Coalition, Tax Justice Network, février 2022 https://taxjustice.net/wp-content/uploads/2022/02/Complex-ownership-chains-Reduced-Andres-Knobel-MB-AK.pdf
- Andres Knobel, « Roadmap to Effective Beneficial Ownership Transparency (REBOT) », Tax Justice Network, 7 février 2023, https://taxjustice.net/2023/02/07/roadmap-to-effective-beneficial-ownership-transparency-rebot/
- Andres Knobel, « When AI runs a company, who is the beneficial owner? », Tax Justice Network, 19 mai 2025, https://taxjustice.net/2025/05/19/when-ai-runs-a-company-who-is-the-beneficial-owner/
- Michael Kan, « GPT-4 Was Able To Hire and Deceive A Human Worker Into Completing a Task », PC Magazine, 15 mars 2023, https://uk.pcmag.com/news/145934/gpt-4-was-able-to-hire-and-deceive-a-human-worker-into-completing-a-task
- À l’avenir, les courriels ou d’autres formes d’adresses numériques pourraient suffire pour les notifications officielles et les besoins d’identification. Si une adresse physique reste nécessaire, un agent d’IA disposerait de différentes options, telles que l’utilisation de l’adresse de son serveur, d’une boîte postale ou de l’adresse d’un prestataire de services physique (il pourrait même exister, à l’avenir, des personnes proposant un service de réception et de numérisation du courrier afin de le rendre accessible aux agents d’IA).
- « Financial Secrecy Index: The World’s Biggest Enablers of Financial Secrecy », Tax Justice Network, 3 juin 2025, https://fsi.taxjustice.net/#scoring_id=268
- Andres Knobel, « Privacy Washing & Beneficial Ownership Transparency », Tax Justice Network, mars 2024 https://taxjustice.net/wp-content/uploads/2024/03/Privacy-Washing-and-Beneficial-Ownership-Transparency-Tax-Justice-Network-March-2024.pdf
- Andres Knobel, « Rethinking Limited Liability Beneficial Ownership Transparency to Reform the Liability System », Tax Justice Network, novembre 2021 https://taxjustice.net/wp-content/uploads/2021/11/Limited-liability-and-BOT_Final.pdf
AFC Trends & Typologies - L’art surveillé : Le rôle des institutions financières
Les enquêtes financières et la confiscation d’avoirs au service de la lutte contre la criminalité
Les effets des directives en matière de LCB-FT sur les avoirs numériques
Développement professionnel : Maîtrisez la prévention de la fraude avec CAFS
Le blanchiment d’argent à la sauce culinaire : une recette pour aider les professionnels de la LCB
AFC Trends & Typologies - L’art surveillé : Le rôle des institutions financières
Les enquêtes financières et la confiscation d’avoirs au service de la lutte contre la criminalité
Les effets des directives en matière de LCB-FT sur les avoirs numériques
Développement professionnel : Maîtrisez la prévention de la fraude avec CAFS
Les effets des directives en matière de LCB-FT sur les avoirs numériques
Le blanchiment d’argent à la sauce culinaire : une recette pour aider les professionnels de la LCB