‘El Padrino de la IA’ advierte sobre peligros de esta tecnología para la humanidad

Compartir:


El reconocido científico de la computación, Geoffrey Hinton, ha expresado su preocupación por la tecnología detrás de los chatbots como ChatGPT, asegurando que puede causar graves daños.

Hinton, quien desarrolló la tecnología en la que se basan los sistemas de inteligencia artificial más grandes de hoy en día, se ha unido a una creciente lista de críticos que aseguran que las empresas están creando productos peligrosos basados en inteligencia artificial generativa.

Hinton dejó su trabajo en Google, donde trabajó durante más de una década y se convirtió en una de las voces más respetadas en el campo de la IA, para poder hablar libremente sobre los riesgos de la IA. Ahora, parte de él lamenta su trabajo de toda la vida. “Es difícil ver cómo se puede evitar que los actores malintencionados lo usen para hacer cosas malas”, dijo.

Si bien muchos líderes de la industria creen que los nuevos sistemas de IA podrían ser tan importantes como la introducción del navegador web a principios de la década de 1990 y podrían conducir a avances en áreas como la investigación de medicamentos y la educación, hay un temor creciente en la industria de estar liberando algo peligroso.

La IA generativa ya puede ser una herramienta para la desinformación y pronto podría ser un riesgo para el empleo. En algún momento, los mayores temores de la tecnología dicen que podría ser un riesgo para la humanidad.

Es importante mencionar que esta información fue publicada por el reconocido periódico The New York Times, en un artículo titulado “A.I. Is Doing Legal Work. But It Won’t Replace Lawyers, Yet.” (La Inteligencia Artificial está haciendo trabajo legal. Pero aún no reemplazará a los abogados).

El artículo destaca las opiniones de Hinton y otros expertos en la industria de la tecnología y la inteligencia artificial sobre los riesgos y beneficios del uso de la IA generativa en diversos campos.

Recuerda que puedes enviarnos tus propuestas de historias y comentarios a través del correo: [email protected] 

¿Ya conoces nuestro canal de YouTube? ¡Suscríbete!


Compartir:

Deja tu comentario