IA, responsabilidad humana y propiedad de la empresa
Este artículo explora como la inteligencia artificial (IA) puede transformar la propiedad de la empresa en el futuro.
Los vehículos legales, como las empresas y fideicomisos, tienen la intención de ayudar a los seres humanos a alcanzar su objetivo. Estas entidades pueden utilizarse para negocios legítimos o ser utilizadas para participar en flujos financieros ilícitos. Incluso cuando se explota a empresas ficticias, organizaciones benéficas o fundaciones para financiar el terrorismo, ocultar las ganancias de la corrupción o facilitar el lavado de dinero, sigue siendo un ser humano, como un narcotraficante, terrorista o político corrupto, el responsable del abuso. La IA pronto podría cambiar esta dinámica.
Como ilustra el Gráfico 1, las estructuras corporativas han evolucionado en términos de la participación de los seres humanos. Cuanto menos participe directamente un ser humano en un vehículo legal, mayor será la necesidad de transparencia de la titularidad real para identificar a esos seres humanos indirectos. Sin embargo, en un futuro próximo, la IA puede reducir o eliminar por completo la participación humana, lo que hace que el concepto de titularidad real sea cada vez más obsoleto.
Gráfico 1: La deshumanización de las estructuras corporativas

Fuente y visualización por: Andrés Knobel
El primer caso en el espectro evolutivo implica la estructura más simple posible, donde no se utiliza ningún vehículo legal, solo humanos. Esto podría ser, por ejemplo, cuando un artesano dirige un negocio de venta de zapatos. El segundo caso implica la estructura más simple posible que implica un vehículo legal: Una persona que incorpora una empresa para dirigir un negocio, asumiendo el papel de propietario y controlador de la empresa. En este caso, la información de propiedad legal disponible en la mayoría de los registros comerciales sería suficiente para identificar a la persona. La transparencia de la titularidad real solo es relevante en el tercer caso, cuando el propietario legal (Compañía 2, accionista y propietario de la Compañía 1) es diferente del propietario efectivo. En este caso, el beneficiario efectivo es el humano que, en última instancia, posee, controla y se beneficia de la empresa que vende zapatos.
En el cuarto caso, el beneficiario efectivo está participando en estructuras de propiedad complejas,1 posiblemente para dificultar la identificación de las autoridades. Una estrategia es interponer muchas capas de entidades y fideicomisos en paraísos fiscales. Otra estrategia es no realizar actividades bajo su propio nombre. En su lugar, el propietario efectivo podría estar utilizando empresas para incorporar otras empresas y nombrar directores corporativos, permitidos en algunas jurisdicciones, para administrar estas empresas. Pueden ser necesarios regímenes efectivos de titularidad real2 que requieran una divulgación completa de la cadena de propiedad y apliquen mecanismos de verificación sofisticados para identificar al beneficiario efectivo camuflado. El quinto caso es cuando un beneficiario efectivo aún más sofisticado y que busca secreto aplica IA para diseñar el complejo esquema de secreto. Esto podría implicar la creación de identidades falsas, como nombres inventados junto con imágenes de pasaporte fabricadas, o hacerse pasar por personas desprevenidas robando su información personal. Sin embargo, incluso si la IA crea y controla una empresa, debería haber un ser humano (beneficiario efectivo) que en última instancia se beneficie del esquema.3
Sin embargo, el quinto caso en un futuro próximo puede implicar a un ser humano de una manera muy remota e indirecta. Un agente de IA a quien se le pida que realice una tarea específica (p. ej.,, "diseñar el calzado más atractivo") puede decidir de forma autónoma vender también esos zapatos como una forma de confirmar que son los más atractivos (similar a una IA que contrató a un humano para resolver una imagen de CAPTCHA y le mintió al humano diciendo que era una persona ciega).4 Si estas decisiones autónomas se convierten en una realidad, vender zapatos, el agente de IA puede decidir hacerse pasar por un ser humano para crear primero una empresa, o también podría comprar una empresa de estantes. Para recibir un pago, el agente de IA también podría hacerse pasar por humanos para abrir cuentas bancarias o monederos de criptoactivos de forma remota. Esto crea la necesidad de garantizar que la debida diligencia sobre la cliente aplicada por los bancos y otras instituciones financieras sea a prueba de IA; sin embargo, esto está más allá del alcance de este artículo.
Esto nos lleva al sexto caso, un escenario hipotético que podría tener lugar pronto, que es el tema central de este artículo. La mayoría, si no todos los procedimientos de los países para incorporar una empresa requieren implícitamente la participación de una persona (ya sea un humano o una persona jurídica, como una empresa). Por ejemplo, el formulario IN01 del Reino Unido para incorporar una empresa requiere el nombre y la dirección de cada suscriptor (es decir, cada accionista inicial). Los agentes de IA aún no tienen un proceso formal de adquirir un nombre y dirección oficial en la forma en que los seres humanos y las personas jurídicas los obtienen de los registros civiles o comerciales. El riesgo de las empresas creadas por la IA es particularmente alto en los países que permiten la incorporación remota. Por ejemplo, el artículo 13g de la Directiva de la Unión Europea (UE) enmendada 2017/1132 requiere que los países de la UE permitan la constitución remota al menos para las sociedades limitadas privadas (p. ej., las sociedades de responsabilidad limitada o las LLC). Muchos países de Europa permiten la incorporación en línea, incluidos el Reino Unido, Irlanda y Chipre, o puede incorporarse en Estonia en menos de dos horas. El paquete de ALD de la UE también incluye el compromiso de publicar directrices para 2027 para las instituciones financieras que realicen la debida diligencia remota de los clientes.
Si todo se hace en línea, tanto la formación de la empresa como la apertura de cuentas bancarias, los agentes de IA podrían mentir utilizando un nombre y dirección falsos e incluso generar una imagen falsa de un pasaporte o un certificado de constitución de una empresa para proporcionar como documentación justificativa. Como alternativa, un agente de IA podría contratar a un candidato de forma remota para abrir una empresa en persona a su nombre. Sin embargo, en este caso, habría al menos un humano involucrado, aunque solo sea nominalmente. El gran cambio puede producirse en un posible escenario en el futuro, si o cuando los paraísos fiscales empiecen a permitir que los agentes de IA se conviertan en “personas artificiales” (similar a cómo se reconoce a las empresas como “personas jurídicas”). Si en el futuro los países permiten que los agentes de IA se conviertan en “personas legales o artificiales”, es posible que se les permita obtener un nombre y una dirección oficiales, lo que les permite crear empresas como cualquier otra “persona física o humana”.5 Además, las jurisdicciones secretas que necesitan dinero en efectivo pueden decidir permitir que los agentes de IA creen empresas directamente sin ningún nombre o dirección oficial. Es posible que ya existan empresas sin humanos, pero puede que nadie verifique esto, especialmente dada la falta de acceso público a la información. La edición de 2025 del Índice de Secreto Financiero,6 que supervisa el registro de titularidad real en más de 140 jurisdicciones, mostró que solo unos pocos países ofrecen registros públicos de titularidad, especialmente como consecuencia del armamentismo de la privacidad.7 Esto significa que las empresas y las autoridades extranjeras tal vez nunca se den cuenta de que están tratando con empresas sin humanos, creadas y dirigidas por agentes de IA. Aparte de sonar como ciencia ficción, las empresas sin humanos podrían tener consecuencias reales. Podrían socavar seriamente el Estado de derecho y la justicia. En primer lugar, es posible que no exista ninguna sanción disuasoria para desalentar a un agente de IA de participar en actividades ilegales. Ningún delincuente humano quiere terminar en la cárcel, pero un agente de IA autónomo que decida crear una empresa para vender drogas o material de abuso sexual infantil en línea puede no verse afectado, sin importar cuán severa sea la sanción. La teoría de la disuasión asume que las personas no se alientan a cometer delitos en función de la probabilidad de ser atrapadas y la dureza de la pena, pero ninguna de las dos se aplica a los agentes de IA. Al mismo tiempo, los agentes de IA podrían crear cientos de empresas, todas beneficiándose injustamente de responsabilidad limitada.8 A diferencia de las empresas normales en las que los directores humanos o los propietarios reales pueden ser considerados responsables de las deudas de la empresa si actuaron ilegalmente, es poco probable que esto fuera posible con empresas sin humanos, o cuando un agente de IA decidió de forma autónoma crear la empresa y participar en actividades ilegales basadas en un mensaje no relacionado de un ser humano (p. ej., "crear un negocio para ganar dinero").
Una solución sencilla a un problema de ciencia ficción
Aunque el nivel de riesgo y otras consecuencias creadas por las empresas sin humanos aún no se pueden estimar completamente, este artículo exploratorio propone una solución simple para prevenirlas. Hasta que los países encuentren una manera de garantizar que los agentes de IA actúen de acuerdo con la ley (o al menos se les pueda disuadir de participar en actividades ilegales), la creación de empresas o la gestión de cualquier negocio o servicio, como a través de plataformas en línea que permiten el comercio de bienes y servicios, debería requerir la participación de un ser humano. Para facilitar la aplicación, los países también podrían exigir que este ser humano sea residente del país. Para crear una mayor disuasión, los países podrían requerir la participación de un profesional con licencia para confirmar la presencia de un humano, ya que los profesionales regulados tienen algo que perder.
Dada la facilidad con la que la IA puede crear videos, la formación remota de la empresa debe suspenderse hasta que los humanos desarrollen formas de confirmar su veracidad. Mientras tanto, la formación de la empresa puede requerir presentarse en persona, como se hizo en el pasado, para confirmar que el suscriptor es un ser humano. Esto no debería crear una burocracia excesiva si el "mínimo" humano requerido vive en el país de constitución. Por ejemplo, la persona podría asistir físicamente a cualquier agencia oficial para confirmar su identidad, como en una comisaría de policía o un banco. Sin embargo, la implicación humana sería útil si la persona se considera responsable y responsable en casos futuros en los que no exista otra implicación humana, o cuando la implicación humana sea muy remota e indirecta sobre la base de un mensaje no relacionado. Es importante destacar que esta verificación de identidad también debería aplicarse siempre que haya un cambio en la propiedad de la empresa. De lo contrario, los agentes de IA podrían comprar fácilmente empresas de estanterías y crear los mismos riesgos que este requisito de participación humana pretende abordar. Este requisito humano mínimo también ayudaría a mitigar el riesgo antiguo de data, previo a la IA de estructuras de propiedad circulares, donde la empresa A es propietaria de la empresa B y viceversa.
Conclusión
Los delincuentes ya abusan de los vehículos legales para participar en flujos financieros ilícitos, como el abuso fiscal, la corrupción y el lavado de dinero. El secreto es uno de los principales facilitadores que permiten a los delincuentes escapar del estado de derecho. Es por eso que la transparencia de la titularidad real es tan importante. Sin embargo, la IA puede cambiar toda esta ecuación. Los vehículos legales creados sobre la base de indicaciones muy indirectas y no relacionadas, y gestionados por agentes autónomos de IA pueden permanecer completamente indisuadidos de participar en flujos financieros ilícitos, incluso con total transparencia. Después de todo, no hay “cárcel” para la IA. Hasta entonces, sería prudente que los países se aseguraran de que al menos un ser humano siempre esté involucrado —y sea responsable— en un vehículo legal, verificando esto en el momento de la constitución o siempre que haya un cambio en la propiedad. Las organizaciones internacionales y los encargados de establecer normas de transparencia deberían explorar mecanismos para garantizar la participación humana y, como mínimo, evitar que los países permitan a los agentes de IA crear y dirigir empresas por su cuenta.
Andres Knobel, investigador principal de titularidad real, Red de Justicia Fiscal, ![]()
Descargo de responsabilidad: Las opiniones e ideas expresadas en este artículo son únicamente las del autor y no representan el punto de vista de ACAMS.
- Andres Knobel, “Estructuras de propiedad complejas: Abordar los riesgos para la transparencia de la titularidad real”, Financial Transparency Coalition, Tax Justice Network, febrero de 2022, pág. https://taxjustice.net/wp-content/uploads/2022/02/Complex-ownership-chains-Reduced-Andres-Knobel-MB-AK.pdf
- Andres Knobel, “Hoja de ruta hacia la transparencia efectiva de la titularidad real (REBOT)”, Red de Justicia Fiscal, 7 de febrero de 2023, pág. https://taxjustice.net/2023/02/07/roadmap-to-effective-beneficial-ownership-transparency-rebot/
- Andres Knobel, “Cuando la IA dirige una empresa, ¿quién es el propietario efectivo?”, Tax Justice Network, 19 de mayo de 2025, pág. https://taxjustice.net/2025/05/19/when-ai-runs-a-company-who-is-the-beneficial-owner/
- Michael Kan, “GPT-4 pudo contratar y engañar A Un trabajador humano para que completara una tarea”, PC Magazine, 15 de marzo de 2023, pág. https://uk.pcmag.com/news/145934/gpt-4-was-able-to-hire-and-deceive-a-human-worker-into-completing-a-task
- En el futuro, los correos electrónicos u otras formas de direcciones digitales pueden ser suficientes para fines de identificación y notificación oficial. En caso de que todavía se necesite una dirección física, un agente de IA tendría diferentes opciones, como usar la dirección de su servidor, una casilla postal o la dirección de un proveedor de servicios físicos (en el futuro podría haber personas que ofrezcan el servicio de recibir y digitalizar cualquier publicación recibida para que sea accesible para los agentes de IA).
- “Índice de Secreto Financiero: Los mayores facilitadores del secreto financiero del mundo", Tax Justice Network, 3 de junio de 2025, pág. https://fsi.taxjustice.net/#scoring_id=268
- Andres Knobel, “Lavado de la privacidad y transparencia de la titularidad efectiva”, Tax Justice Network, marzo de 2024, pág. https://taxjustice.net/wp-content/uploads/2024/03/Privacy-Washing-and-Beneficial-Ownership-Transparency-Tax-Justice-Network-March-2024.pdf
- Andres Knobel, “Rethinking Limited Liability Benefit Ownership Transparency to Reform the Liability System”, Tax Justice Network, noviembre de 2021, pág. https://taxjustice.net/wp-content/uploads/2021/11/Limited-liability-and-BOT_Final.pdf
Los efectos de las directrices de PLD en los activos digitales
Lavado de dinero con calidad de cocina: Una receta para ayudar a los profesionales de ALD
Desarrollo profesional: Domine la prevención del fraude con CAFS
Los efectos de las directrices de PLD en los activos digitales
Los efectos de las directrices de PLD en los activos digitales
Lavado de dinero con calidad de cocina: Una receta para ayudar a los profesionales de ALD