Enredad@s / 17 de febrero de 2024

¡Lo último! Aumentan las estafas con el uso de Inteligencia Artifical

Romario Quintero

En redes sociales han circulado información creada con IA que busca estafar a las personas. Esto ha ocurrido con informaciones del ámbito político, hasta con la publicidad de un futbolista.

Es preocupante ver cómo los ciberdelincuentes están utilizando la tecnología para manipular y perturbar procesos democráticos, como lo sucedido en New Hampshire. El presunto intento ilegal de supresión de votantes a través de la suplantación de la voz con Inteligencia Artificial de Joe Biden, presidente de los Estados Unidos.

El mensaje compartido en las llamadas instaba a los ciudadanos a no asistir a las urnas en las primarias presidenciales, argumentando que su voto solo permitiría a los republicanos en su búsqueda de reelegir a Donald Trump.

Este incidente resalta la importancia de fortalecer las medidas de seguridad cibernética y de concienciar a la población sobre las amenazas que enfrentamos en el mundo digital.

Por otro lado, el caso más cercano en nuestro país fue la noticia falsa de Noticias Caracol entrevistando a Luis Díaz, jugador del Liverpool.

En el video, creado con inteligencia artificial, se observa una nota en el que se habla sobre un supuesto proyecto encabezado por el astro colombiano, para “asistir a la población colombiana”.

En el desarrollo del video se logra observar como en un inicio la voz no coincide con el movimiento de labios de la presentadora de noticias, pero en la parte en la que habla el guajiro se puede generar algo de confusión, dado que es un fragmento de una entrevista real.

¿Métodos para clonar la voz con IA?

Clonar la voz con inteligencia artificial implica el uso de algoritmos avanzados para analizar y sintetizar patrones de voz.

En términos simples, el proceso generalmente implica recopilar una gran cantidad de muestras de voz de la persona que se desea clonar, luego utilizar técnicas de aprendizaje profundo para modelar y recrear los patrones vocales únicos de esa persona.

Los avances en inteligencia artificial, en particular en el campo del procesamiento del lenguaje natural, han permitido el desarrollo de modelos capaces de imitar con precisión la entonación, el ritmo y otros aspectos distintivos de una voz específica.

Esto plantea desafíos éticos y de seguridad, ya que la tecnología podría ser mal utilizada para crear mensajes falsos o engañosos.

¿Cuáles son las recomendaciones para que tu voz no sea clonada?

Protege tus grabaciones de voz

Evita compartir grabaciones extensas de tu voz en plataformas públicas o con personas desconocidas. Cuantas menos muestras de voz estén disponibles, menor será la posibilidad de que se utilicen para clonar tu voz.

Configura la privacidad en redes sociales

Revisa y ajusta la configuración de privacidad en tus cuentas de redes sociales y plataformas en línea para limitar quién puede acceder a tus grabaciones de voz o contenido relacionado con tu voz.

Ten cuidado con llamadas y solicitudes sospechosas

Si recibes solicitudes inusuales para proporcionar grabaciones de tu voz o información personal, sé cauteloso y verifica la autenticidad de la solicitud antes de compartir cualquier dato.

Utiliza contraseñas seguras

Protege tus dispositivos y cuentas con contraseñas sólidas y habilita la autenticación de dos factores siempre que sea posible para evitar accesos no autorizados a tus archivos de voz.

Mantente actualizado sobre la tecnología

Estar informado sobre las últimas tendencias y desarrollos en tecnología de clonación de voz te ayudará a comprender mejor los riesgos y tomar medidas preventivas adicionales.

+ Noticias


Gian Jiménez, el fotógrafo de las imágenes “divertidas”
Para estos calores… buena es un agua de panela
Un plato poco costoso para compartir con amigas
“Si pudiera, sería reina todas las veces”: Melissa Cure