Redacción internacional.- Con la inteligencia artificial ya no hay marcha atrás. Esta es una de las frases con la que numerosos expertos en la materia aseguran lo que va a ocurrir con esta tecnología, ya que hay muchos peligros al jugar con ella.
Concretamente, Roman Yampolskiy, un renombrado experto en seguridad de IA, afirma que cree que es prácticamente inevitable que la IA cause la extinción de la humanidad, estimando esta probabilidad en un 99,999999%.
En una entrevista en el pódcast de Lex Fridman, Yampolskiy ha asegurado que se debería de abandonar el desarrollo de la tecnología ahora porque sería casi imposible controlar la inteligencia artificial una vez que se vuelva más avanzada. Según LondonReal, Roman es uno de los mayores sabios en esta materia.
Autor de varios libros, este año ha publicado uni bajo el nombre de AI: Unexplainable, Unpredictable, Uncontrollable (IA: inexplicable, impredecible, incontrolable). El experto ha asegurado que las posibilidades de que la IA acabe con el ser humano dependen de si las personas pueden desarrollar software de alta complejidad sin fallos en los próximos 100 años. Algo que es realmente imposible, según el investigador, debido a que ya han cometido errores.
Con la inteligencia artificial ya no hay marcha atrás. Esta es una de las frases con la que numerosos expertos en la materia aseguran lo que va a ocurrir con esta tecnología, ya que hay muchos peligros al jugar con ella.
Concretamente, Roman Yampolskiy, un renombrado experto en seguridad de IA, afirma que cree que es prácticamente inevitable que la IA cause la extinción de la humanidad, estimando esta probabilidad en un 99,999999%.
En una entrevista en el pódcast de Lex Fridman, Yampolskiy ha asegurado que se debería de abandonar el desarrollo de la tecnología ahora porque sería casi imposible controlar la inteligencia artificial una vez que se vuelva más avanzada. Según LondonReal, Roman es uno de los mayores sabios en esta materia.
Autor de varios libros, este año ha publicado uni bajo el nombre de AI: Unexplainable, Unpredictable, Uncontrollable (IA: inexplicable, impredecible, incontrolable). El experto ha asegurado que las posibilidades de que la IA acabe con el ser humano dependen de si las personas pueden desarrollar software de alta complejidad sin fallos en los próximos 100 años. Algo que es realmente imposible, según el investigador, debido a que ya han cometido errores.
Investigador advierte sobre el fin de la humanidad por avances de la IA: «Podría suceder en dos años»
Además de que no cree que a día de hoy exista un solo un gran modelo lingüístico al que nadie haya conseguido hacer algo que los desarrolladores no pretendían que hiciese. Ha expuesto que para controlar esta tecnología se necesita una máquina de seguridad perpetua e incluso ha puesto el ejemplo de que, aunque se haga un gran trabajo con las próximas versiones de ChatGPT, la IA va a seguir mejorando y aprendiendo, y los riesgos existen.
Según Yampolskiy, estamos enfrentándonos a algo que, casi con total certeza, tiene el potencial de causar una catástrofe existencial y no es de extrañar que muchos consideren esto como el problema más importante que la humanidad ha enfrentado. Si bien el experto no pone ninguna duda de que la IA tiene muchos y grandes beneficios para el ser humano, también esto se puede volver en contra creando un poder destructivo. “El resultado podría ser prosperidad o extinción, y el destino del universo está en juego”.
Recibe las últimas noticias en tu casilla de email