Home Business Anthropic CEO Riesgos de IA: corto, mediano y largo plazo

Anthropic CEO Riesgos de IA: corto, mediano y largo plazo

0
Anthropic CEO Riesgos de IA: corto, mediano y largo plazo

La ansiedad por los peligros de la IA es un problema propio de 2023, avivado por la rápida adopción de herramientas como generadores de texto a imagen y chatbots realistas.

La buena noticia, para aquellos propensos a preocuparse, es que puede organizar su inquietud en tres categorías ordenadas: riesgos de IA a corto plazo, riesgos a mediano plazo y riesgos a largo plazo. Así lo hace Dario Amodei, cofundador y director general de Anthropic.

Amodei debería saberlo. En 2020, dejó OpenAI, el creador de ChatGPT, para cofundar Anthropic con el principio de que los modelos de lenguaje grandes tienen el poder de volverse exponencialmente más capaces a medida que se vierte más poder de cómputo en ellos y que, como resultado, estos modelos deben diseñarse desde el suelo con la seguridad en mente. En mayo, la empresa recaudó $ 450 millones en fondos.

Hablando en la conferencia Fortune Brainstorm Tech en Deer Valley, Utah, el lunes, Amodei presentó su modelo de miedo de tres niveles en respuesta a una pregunta de Jeremy Kahn de Fortune sobre los riesgos existenciales que plantea la IA. Así es como Amodei se preocupa por la IA:

  • Riesgos a corto plazo: El tipo de problemas a los que nos enfrentamos hoy, “en torno a cosas como el sesgo y la desinformación”.
  • Riesgos a medio plazo:: “Creo que en un par de años, a medida que los modelos mejoren en cosas como la ciencia, la ingeniería, la biología, puedes hacer cosas muy malas con los modelos que no hubieras podido hacer sin ellos”.
  • Riesgos a largo plazo: “A medida que avanzamos en los modelos que tienen la propiedad clave de la agencia, lo que significa que no solo generan texto, sino que pueden hacer cosas, ya sea con un robot o en Internet, creo que debemos preocuparnos por se vuelven demasiado autónomos y es difícil detener o controlar lo que hacen. Y creo que el extremo de eso es la preocupación por el riesgo existencial”.

Los modelos de lenguaje grande son increíblemente versátiles. Se pueden aplicar en una amplia cantidad de usos y escenarios: “la mayoría de ellos son buenos. Pero hay algunos malos acechando allí y tenemos que encontrarlos y prevenirlos”, dijo Amodei.

No deberíamos “enloquecernos” por el escenario de riesgo existencial a largo plazo, aconsejó. “No van a suceder mañana, pero a medida que continuamos con el exponencial de IA, debemos entender que esos riesgos están al final de ese exponencial”.

Pero cuando Kahn le preguntó si en última instancia era optimista o pesimista sobre la IA, el CEO de Anthropic ofreció una respuesta ambivalente que será reconfortante o aterradora, dependiendo de si usted es un tipo de vaso medio lleno o medio vacío. persona: “Supongo que las cosas irán muy bien. Pero existe un riesgo, tal vez del 10% o 20%, de que esto salga mal, y nos corresponde a nosotros asegurarnos de que eso no suceda”.

Suscríbase a Well Adjusted, nuestro boletín lleno de estrategias simples para trabajar de manera más inteligente y vivir mejor, del equipo de Fortune Well. Regístrate hoy.

LEAVE A REPLY

Please enter your comment!
Please enter your name here