La ciencia ficción, razón que explica el temor a la inteligencia artificial

Al poco del lanzamiento, se empezó a cuestionar la ética del mecanismo, ya que los que contestaban al teléfono no sabían que estaban hablando con una máquina y no con un humano.

Nueva York.- Los argumentos distópicos de los libros y las películas de ciencia ficción en los que la humanidad tiene que enfrentarse a una inteligencia artificial (IA) o a robots para sobrevivir han hecho que los humanos se muestren más reacios a interactuar en la actualidad con esta disciplina, según se puso hoy de relieve en la Cumbre de IA en Nueva York.

«Desconfiamos de las máquinas, en parte, eso se debe a la ciencia ficción y la forma en que a menudo contempla un futuro distópico. Eso ha creado la mentalidad, a medida que avanzamos tecnológicamente, de que el poder de la máquina es demasiado peligroso», dice a EFE Matthew Quint, director del Centro de Liderazgo de Marca Global y de la Escuela de Negocios de la Universidad de Columbia.

Quint, que participó este miércoles en esta cumbre tecnológica en la Gran Manzana, indica que la principal razón por la que los humanos no se suelen fiar de la IA es por el «miedo a que (las máquinas) tomen el control», además de que la falta de «empatía» y «emociones» de las máquinas crea una desconexión.

«No obstante, la realidad es que la Inteligencia Artificial creada para proporcionar información de manera efectiva puede permitir tomar una decisión mucho más informada de alguna manera que cuando se escucha la información suministrada por otro ser humano», apunta el especialista, y dice que la transparencia será una de las claves para que los usuarios se familiaricen con estas herramientas.

En su intervención en el panel: «¿Cuál es el impacto de la IA ética en la experiencia del cliente?», Quint señaló que algunos asistentes virtuales que sirven para cuadrar citas, al principio, se hacían pasar por el cliente para conseguir dichas citas.

Al poco del lanzamiento, se empezó a cuestionar la ética del mecanismo, ya que los que contestaban al teléfono no sabían que estaban hablando con una máquina y no con un humano.

Para evitar este conflicto ético, ahora el sistema en sus conversaciones con humanos dice que es un asistente virtual que llama en nombre de un cliente.

CAMBIO CON LAS NUEVAS GENERACIONES

Quint apunta que se está viendo un cambio en este miedo por parte de las nuevas generaciones, que ven normal comunicarse con un asistente virtual controlado por voz para que les resuelvan sus dudas, como Siri, en el caso de Apple o Alexa en el de Amazon.

«Vemos casos como el de un niño que le preguntó a un árbol: ‘¿Cómo de grande es el bosque?’ Porque estaba acostumbrado a preguntarle a Amazon Echo en su casa», argumenta Quint.

Por su parte, desde uno de los muchos stands de la cumbre, Joe Kelleher, trabajador de Cognigy -empresa que usa IA para ofrecer servicios como atención al cliente- dice a EFE que las nuevas generaciones priorizan la rapidez y no les importa si quien le soluciona el problema es un humano o una máquina.

«Esta generación más joven tiene menos capacidad de atención, está acostumbrada a ver videos de TikTok de 10 segundos. Si tienen una pregunta, quieren una respuesta de inmediato. No quieren pasar 15 minutos en espera para hablar con alguien», explica Kelleher.

LA ÉTICA DE LA IA

Según Pamela Gupta, encargada de la ciberseguridad en AI de IEEE Standards Association, hay varias claves para que la IA sea ética: transparencia, integridad, privacidad y seguridad (TIPS).

Asimismo, anotó que es esencial que las programaciones de la AI y los datos que se recolectan para estos programas sean éticos desde un primer momento, y tienen que tener en cuenta a todas las razas y géneros.

Gupta ejemplificó la importancia de esta diversidad de datos con el caso de un banco estadounidense -no identificó cuál- que denegó sus hipotecas al «50 % de un grupo étnico particular» usando los análisis de su IA, lo que supone un mal uso de los datos de la IA.

«Las herramientas que estaban usando miraban a la raza (de los clientes) para tomar estas decisiones», explicó.