La era de la inteligencia artificial (IA) ya ha llegado. Un mundo cada vez más traducido a datos que gestionan unas herramientas de software con potentes capacidades analíticas y de predicción, y cada vez con una mayor capacidad para tomar decisiones de manera autónoma. Una realidad, en algunos aspectos, muy parecida a la ciencia ficción de hace unos pocos años, en la que tan solo veíamos o imaginábamos robots con IA en las películas y, la mayoría de las veces, no con fines positivos para la humanidad.
Este nuevo mundo en el que comenzamos a adentrarnos sin duda hará cambiar nuestra percepción sobre las cosas que nos rodean y, muy probablemente, modificará nuestros comportamientos. Nos enfrentamos a una personalización masiva de productos y servicios basados en el análisis y seguimiento de nuestros datos personales, a un cambio en nuestra visión del mundo, tanto a nivel profesional como personal, gracias a una IA capaz de realizar predicciones con un alto nivel de fiabilidad en un tiempo récord.
Ventajas de la inteligencia artificial
Es un hecho ya visible que la IA trae grandes ventajas para la humanidad. Aumenta nuestras capacidades intelectuales de manera exponencial y, siempre que la veamos como una herramienta de apoyo, ayudará a mejorar la calidad de vida de los seres humanos.
Tal y como durante la Revolución Industrial se desarrollaron las máquinas para ayudar en las tareas físicas del ser humano, por ejemplo, en las labores del campo, ahora los algoritmos nos ayudan a lidiar con la ingente cantidad de datos que crece cada segundo que pasa a un ritmo exponencial y que nosotros, como humanos, no somos capaces de gestionar con eficiencia con nuestros medios físicos.
Así, visto como una ayuda, poniendo al ser humano como centro en la toma de decisiones y normalizando la apariencia de la IA, quizá haya convencido al lector de la necesidad de acabar con estos prejuicios de ciencia ficción y de centrar la idea de que el peligro no está en la tecnología en sí misma –en la IA, en este caso– sino en el uso que todos nosotros, los humanos, hacemos de ella.
Los riesgos: imágenes falsas muy reales
Uno de los mayores temores sociales –convertido en problema– que nos trajeron tecnologías precedentes, en particular Internet, fue su uso para difundir noticias falsas.
Las llamadas fake news inundan principalmente las redes sociales, confundiendo a una población abrumada por la cantidad de información que recibe diariamente y el poco tiempo disponible para asimilarla adecuadamente.
Sin embargo, parece que la percepción cuando lees o escuchas algo puede ser más susceptible de dudas que cuando te enfrentas visualmente a ello. Pocos son aún los que cuestionan la veracidad de la imagen o del vídeo. Las típicas frases “una imagen vale más que mil palabras” o “necesito ver para creer” inciden en nuestro razonamiento cuando nos empiezan a llegar noticias de que ya nunca más será así.
El uso de técnicas de inteligencia artificial para manipular imágenes de vídeos de personajes famosos, políticos y otras autoridades de manera que parezcan reales ha hecho saltar las alarmas respecto a la fiabilidad de lo que hasta hace poco era incuestionable.
No han sido pocos los personajes públicos que han visto usurpada su identidad –incluyendo no solo su imagen, sino también su voz y sus gestos–, muchos de ellos con fines pornográficos, y difundido el resultado masivamente a través de las redes sociales.
El peligro es indudable. También el riesgo de no poder identificar como falsas imágenes de vídeos que aparentan ser las verdaderas, aunque no sea con un fin malicioso. El anuncio de la empresa Cruzcampo con Lola Flores levantó conciencias sobre estos riesgos. Además de para sorprender, sirvió para iniciar el debate sobre este tema y abrir una serie de preguntas como: ¿es ético utilizar la cara, la voz o la personalidad de una persona fallecida para fines publicitarios?
Transparencia y concienciación
La Comisión Europea, en su propuesta de regulación para la inteligencia artificial, recoge estas prácticas de ultrafalso o deep fakes y las categoriza como “riesgo limitado”.
Así, para su uso será necesaria una “declaración responsable” que especifique su propósito, así como labores de transparencia. Este último punto relacionado con la identificación explícita de la imagen como simulada y no real. Esta será la manera más adecuada de evitar confusiones en una audiencia cada vez más abrumada por la evolución de la técnica y las manipulaciones, ya sean intencionadas o no.
La cuestión es que la tecnología continúa avanzando a pasos agigantados en grado de precisión y calidad y las leyes, que controlarían en cierta medida sus riesgos, van a la velocidad de siempre.
Mientras esperamos esta regulación, y que se pongan en marcha las prácticas éticas de las distintas empresas y organizaciones que las usan, ya existen distintos tipos de software que nos ayudan a saber si tenemos ante nosotros una imagen de vídeo real o no. Es el caso de Microsoft Video Authenticator o About Face, de Adobe.
Pero aún hace falta mucha concienciación de la población sobre a qué les exponen estas deep fakes en el caso de que se usen, por ejemplo, en campañas electorales. Esta capacitación de la audiencia para hacer frente a esta revolución tecnológica será sin duda uno de los grandes retos del siglo XXI.
Sin embargo, a pesar de los riesgos y sinsabores citados sobre las deep fakes, esta tecnología no fue creada para el mal, ni para crear confusión. Como ocurre casi siempre, el peligro no está en la tecnología en sí, sino en el uso que hacemos de ella.
Así, esta técnica es un recurso habitual en la industria cinematográfica. Gracias a ella se pudo revivir al actor Peter Cushing en Rogue One: Una historia de Star Wars, entre otras. Y también se emplea en los anuncios publicitarios o para convertir antiguas fotografías en animados vídeos, como es el caso de Deep Nostalgia.
Lo que vemos ya no será nunca más signo de verdad absoluta. La cuestión está en si aprenderemos a vivir con ello sin que nos suponga un perjuicio.
Idoia Salazar es especialista en Ética e Inteligencia Artificial, Universidad CEU San Pablo. La versión original de este artículo aparece en el número 117 de la Revista Telos, de Fundación Telefónica.
© The Conversation. Republicado con permiso.