Dario Amodei

Director ejecutivo y cofundador de Anthropic From Wikipedia, the free encyclopedia

Dario Amodei (San Francisco, 1983) es un investigador y emprendedor estadounidense especializado en inteligencia artificial. Es cofundador y director ejecutivo de Anthropic, la empresa responsable de Claude, un modelo extenso de lenguaje.[1] Anteriormente fue vicepresidente de investigación en OpenAI.[2][3]

Nacimiento 1983 Ver y modificar los datos en Wikidata
Nacionalidad Estadounidense
Supervisor doctoral William Bialek y Michael J Berry Ver y modificar los datos en Wikidata
Datos rápidos Información personal, Nacimiento ...
Dario Amodei
Información personal
Nacimiento 1983 Ver y modificar los datos en Wikidata
Nacionalidad Estadounidense
Educación
Educado en Universidad de Princeton Ver y modificar los datos en Wikidata
Supervisor doctoral William Bialek y Michael J Berry Ver y modificar los datos en Wikidata
Información profesional
Ocupación Investigador de la inteligencia artificial y technology entrepreneur Ver y modificar los datos en Wikidata
Área Inteligencia artificial Ver y modificar los datos en Wikidata
Empleador
Sitio web darioamodei.com Ver y modificar los datos en Wikidata
Distinciones
Cerrar

En su calidad de director ejecutivo de Anthropic, escribe con frecuencia sobre los beneficios y riesgos de los sistemas avanzados de IA. Es partidario de una estrategia de «entente» en la que una coalición de naciones democráticas utilice sistemas avanzados de IA en aplicaciones militares para lograr una ventaja decisiva sobre sus adversarios, compartiendo al mismo tiempo los beneficios con las naciones que cooperan.[4][5][6]

Biografía

Dario Amodei nació en San Francisco, California, en 1983.[7] Su hermana, Daniela, nació cuatro años después.[7] Su padre era Riccardo Amodei, un artesano italoamericano del cuero. Su madre, Elena Engel, judía estadounidense nacida en Chicago, trabajaba como gestora de proyectos para bibliotecas.[7]

Darío creció en San Francisco y se graduó de la preparatoria Lowell.[8] Amodei comenzó sus estudios de pregrado en Caltech, donde trabajó con Tom Tombrello como uno de sus alumnos de Física 11. Posteriormente se transfirió a la Universidad de Stanford, donde obtuvo su licenciatura en física.[9] También posee un doctorado en física de la Universidad de Princeton, donde estudió electrofisiología de circuitos neuronales.[10] Fue investigador postdoctoral en la Escuela de Medicina de la Universidad de Stanford.[11]

Desde noviembre de 2014 hasta octubre de 2015 trabajó en Baidu.[12] Posteriormente, trabajó en Google.[13] En 2016, Amodei se unió a OpenAI.[14]

En 2021, Darío y su hermana, Daniela, fundaron Anthropic junto con otros exmiembros sénior de OpenAI.[15] Los hermanos Amodei estuvieron entre quienes abandonaron OpenAI debido a diferencias de rumbo.[16]

En noviembre de 2023, el consejo de administración de OpenAI se puso en contacto con Amodei para proponerle la sustitución de Sam Altman y una posible fusión de las dos empresas emergentes. Amodei rechazó ambas ofertas.[17]

En 2025, la revista Time incluyó a Amodei en su lista de las 100 personas más influyentes del mundo.[18] Ese mismo año, apareció por primera vez en la lista de multimillonarios de Forbes con un patrimonio neto estimado de 1.200 millones de dólares estadounidenses.[19] Su empresa Anthropic fue valorada en 60.000 millones de dólares estadounidenses a principios de 2025.[20]

Posiciones

En julio de 2023, Amodei advirtió a un panel judicial del Senado de los Estados Unidos sobre los peligros de la IA, incluidos los riesgos que plantea en el desarrollo y control de armamento.[21][22]

En octubre de 2024, Amodei publicó un ensayo titulado Machines of Loving Grace (Máquinas de gracia amorosa),[23] donde especulaba sobre cómo la IA podría mejorar el bienestar humano. [5] En él, escribe: «Creo que la mayoría de la gente subestima el potencial radical de la IA, así como también subestima la gravedad de sus riesgos». [4] En ese mismo artículo, aboga por una estrategia de «entente» en la que una coalición de democracias utilice la IA para obtener una ventaja estratégica y militar decisiva sobre sus adversarios, distribuyendo los beneficios entre las naciones que cooperen.[4]

Para implementar la IA de una manera positiva [24] y socialmente aceptable (particularmente para que las democracias conserven su capacidad de dar forma a estas tecnologías frente a una posible deriva autoritaria), es urgente, según Amodei, resolver el problema de la opacidad intrínseca de los sistemas de IA actuales que (a diferencia de los programas informáticos tradicionales que siguen las instrucciones de los desarrolladores) se desarrollan con entrenamiento y exhiben mecanismos internos emergentes «que son difíciles de anticipar o controlar [25] (Amodei fue uno de los primeros en descubrir el fenómeno de «superposición», un mecanismo mediante el cual un modelo de IA puede codificar simultáneamente varios conceptos en una sola neurona artificial, optimizando así su capacidad de aprendizaje y expresión, pero a costa de una menor interpretabilidad. Esto contribuye al efecto de caja negra y explica por qué, a pesar de la presencia de algunas neuronas interpretables, la mayoría de los elementos internos siguen siendo complejos y difíciles de descomponer por completo). [25] Amodei insiste en que no comprender claramente por qué y cómo una IA elige sus respuestas, cómo comete errores o presenta sesgos u otros posibles fallos, es una grave anomalía, sin precedentes en la historia de la ciencia y la tecnología.

En una entrevista con el Financial Times, profundizó en su postura sobre el uso de la IA en aplicaciones militares y de inteligencia, afirmando: «Nuestra opinión, como siempre, es que no estamos dogmáticamente a favor ni en contra de nada. La postura de que nunca deberíamos usar la IA en entornos de defensa e inteligencia no tiene sentido para mí. La postura de que deberíamos usarla sin control para crear lo que queramos -incluso armas del fin del mundo- es, obviamente, igual de descabellada. Intentamos encontrar un punto intermedio, actuar con responsabilidad». [26]

Dario Amodei expresó su apoyo a prohibiciones de venta más estrictas de ciertos chips Nvidia y otros a China, al tiempo que especificó que su «El objetivo no es negar a China ni a ningún otro país autoritario las inmensas ventajas en ciencia, medicina y calidad de vida, etc., que provienen de sistemas de IA muy potentes. Todos deberían poder beneficiarse de la IA. El objetivo es evitar la adquisición de dominio militar.»[27]

En julio de 2025, Anthropic aceptó un contrato de defensa de 200 millones de dólares del Departamento de Defensa de Estados Unidos, junto con Google, XAI y OpenAI. [28]

En julio de 2025, un memorándum filtrado, escrito por Amodei al personal de Anthropic, indicaba que la empresa buscaba inversiones de los Emiratos Árabes Unidos y Catar. En el memorándum, reconocía que esta asociación probablemente enriquecería a «dictadores«, afirmando: «Desafortunadamente, creo que 'Ninguna mala persona debería beneficiarse jamás de nuestro éxito' es un principio bastante difícil de aplicar en un negocio«. [29]

Amodei ha hablado públicamente sobre sus reflexiones acerca de la IA y su opinión sobre la posibilidad de que «las cosas salgan muy mal» con ella. [30] [31] También se ha pronunciado sobre la idea de que la IA podría reemplazar puestos de trabajo humanos muy pronto. [32]

Referencias

Enlaces externos

Related Articles

Wikiwand AI