Noticias

tras la línea de lo ético


En los últimos años hemos visto grandes avances en el campo de la inteligencia artificial. Sin embargo, no ha sido hasta el lanzamiento de ChatGPT cuando las IAs generativas han empezado a formar parte de nuestro día a día. Aunque son excelentes herramientas para aligerar nuestro trabajo y acceder al conocimiento de una forma mucho más sencilla, también presentan una serie de peligros, sobre todo en cuanto a la proliferación de bulos y el debate ético que gira en torno a estas tecnologías.

No obstante, lejos de las tecnologías de IAs generativas también existe una nueva tendencia en redes que consiste en recrear, mediante IA, la apariencia y voces de niños fallecidos o desaparecidos en casos criminales de alto perfil en el mundo. Varios creadores de contenido en TikTok se dedican a esto, y si bien causa emoción en muchos usuarios, también supone una forma de herir los sentimientos de los seres queridos de las víctimas.

Una tendencia ofensiva para las víctimas

El medio The Washington Post le ha dedicado un artículo a este tema, donde se explica que las recreaciones se utilizan para narrar los detalles perturbadores de lo que le sucedió a estos niños. Si bien la inteligencia artificial puede ser una gran aliada en cuanto a brindar oportunidades creativas, también existe un debate ético detrás en el que últimamente se cruzan muchas líneas.

Uno de los ejemplos que aparecen en esta red social tiene que ver con el caso de James Bulger, un niño británico de dos años que fue secuestrado y asesinado en 1993. En el vídeo se ve una foto de él mismo narrando estos mismos hechos por medio de inteligencia artificial para mover las facciones de su rostro y generar su voz.

A pesar de los esfuerzos de TikTok por eliminar este tipo de vídeos, muchos de ellos todavía se pueden ver en la plataforma. Según destaca el medio, tanto los padres de las víctimas como algunos expertos en la materia consideran estos vídeos como “perturbadores” y “ofensivos”.

Plataformas tales como TikTok o YouTube tienen pautas claras en lo que respecta al contenido que se puede subir a su plataforma. En este caso, el uso de medios digitales para recrear la apariencia de personas jóvenes está prohibido. Además, en caso de permanecer en la plataforma, sería buena idea etiquetar el vídeo para advertir de que no se trata de un vídeo real, incluyendo un descargo de responsabilidad en dichos contenidos.

Debido a las grandes funcionalidades y creciente accesibilidad de las tecnologías basadas en inteligencia artificial, este tipo de vídeos están comenzando a aparecer cada vez más. Si bien la IA se encuentra en un punto en el que puede recrear con precisión la voz de una persona, parece que las voces generadas en este caso no están basadas en las voces reales de dichos niños.

Que este tipo de vídeos contengan contenido emocional de este estilo podría hacer que se acaben compartiendo aún más estos vídeos en redes sociales, siendo una falta de respeto hacia los familiares y seres queridos de las víctimas.

Si bien aún hay margen de mejora en lo que respecta a recrear imágenes históricas realistas mediante inteligencia artificial, esta tecnología ha evolucionado considerablemente. Hoy día podemos encontrar multitud de herramientas para ello, como es el caso de MyHeritage para crear fotografías antiguas en movimiento, una tecnología similar a la utilizada en estos vídeos.

Imagen | Generada por IA con DreamStudio

En Genbeta | No solo Instagram. Ahora TikTok también quiere ser Twitter con esta nueva función basada en texto



Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *