El lado oscuro de la Inteligencia Artificial que hay que conocer
Ideas de inversión

El lado oscuro de la Inteligencia Artificial que hay que conocer

Toda innovación tecnológica puede orientarse a un buen uso, en beneficio de las personas y logrando un aumento de la productividad o, al contrario, puede emplearse para fines perversos, especialmente por personas u organizaciones sin escrúpulos o al margen de la ley.

La Inteligencia Artificial (IA) es una innovación tecnológica que permite, entre otras cosas: reducir los tiempos de multitud de procesosautomatizar tareas repetitivas, disminuir los errores y aumentar la capacidad humana de análisis y creatividad.

Entre otras utilidades facilitadas por la IA, este mismo artículo puede ser escuchado en un audio con mi propia voz. Enviado el audio a mis propios hermanos, ellos afirmaban, sin duda alguna, que es mi voz la que se oye en el audio. La realidad es que la voz no es la mía, sino que está creada por IA, clonando mi propia voz con una calidad que cualquiera que conozca mi voz creerá que lo he grabado yo.  

Los riesgos de un mal uso de la IA para suplantar a personas son evidentes. De hecho, el propio FBI y la American Bankers Association (ABA) recientemente han alertado de que cada vez es más difícil detectar contenido falso creado por IA, incluyendo la suplantación de personas tanto a través de la voz como de imágenes.

Estos riesgos son reales y crecientes. Hay que ser conscientes de su existencia e intentar minimizarlos. Las falsificaciones pueden ser tanto de imágenes, vídeos o audios alterados.

Imagine una llamada telefónica de un “presunto” hijo o un nieto a una persona mayor solicitando dinero. Con la sofisticación actual en la clonación de voces, lo normal es que dicha llamada convenza a la persona mayor de que realmente está hablando con un familiar cercano.

Conviene estar alerta. Si alguien, incluso un amigo o un familiar, a través de una llamada, o un mensaje, aunque sea de voz, solicita de forma apresurada dinero o determinada información personal, incluso claves, hay que desconfiar y verificar la identidad de dicha persona.

No hay que fiarse de cualquier comunicación poco habitual, incluso de alguien cercano, que solicite dinero, contraseñas o información personal. Es habitual la utilización de la manipulación emocional para provocar miedo o urgencia e intentar evitar dar tiempo para la comprobación de la identidad real del solicitante.

Es muy útil la creación de palabras clave o frases que solo conozcan las personas más cercanas para confirmar la identidad de la otra persona.

Nadie está libre de ser clonado (digitalmente). Este riesgo no está limitado solo a personas públicas. Cuanto mayor sea la “huella digital” de una persona, es decir, cuantas más fotos, grabaciones de voz o vídeos estén subidos a cualquiera de las redes sociales existentes, más información para entrenar modelos de “suplantación de identidad”.

La IA está en una fase casi inicial. Revolucionará muchos sectores en los próximos años, aumentando la productividad y la capacidad de análisis y creatividad de las personas. Desafortunadamente, también está siendo utilizada por delincuentes para suplantar a personas. Identificar los riesgos, darlos a conocer y establecer sencillos protocolos, como la creación de palabras clave solo conocidas por las personas cercanas, es la mejor forma de mitigarlos.

Las innovaciones tecnológicas siempre tienen riesgos. La IA no es una excepción.