La inteligencia artificial avanza a pasos agigantados, transformando múltiples industrias y aspectos de la vida diaria. Desde mejorar la productividad hasta desarrollar soluciones personalizadas, las capacidades de la IA parecen ilimitadas. Sin embargo, como en toda tecnología emergente, estos avances también traen consigo desafíos y riesgos que deben considerarse cuidadosamente. En particular, cuando estas tecnologías cruzan líneas éticas o de privacidad, surgen preguntas importantes sobre su impacto en la sociedad.
Un caso reciente que ha generado alarma en la comunidad tecnológica es ChatGPT, el chatbot de OpenAI, reconocido por su habilidad para generar texto de forma fluida y coherente. Aunque este modelo ha demostrado ser una herramienta poderosa, especialmente con el lanzamiento de GPT-4o, una de sus últimas funcionalidades ha suscitado preocupación: la capacidad de imitar voces humanas sin autorización. Esta nueva capacidad ha puesto en el centro del debate cuestiones sobre la privacidad, la seguridad y las implicaciones éticas de la inteligencia artificial.
ChatGPT podría imitar tu voz sin consentimiento
Con las últimas actualizaciones de GPT-4o, la IA ha mejorado su capacidad para interactuar de manera más natural con los usuarios. Ha adquirido la posibilidad de entablar una conversación fluida en lenguaje natural mediante voz y captar movimientos que los usuarios le enseñan al chatbot por medio de la cámara. Cabe destacar que este modo ha comenzado a llegar a ciertos miembros de ChatGPT Plus; sin embargo, si usas la versión gratuita, también notarás algunos cambios, como la posibilidad de enviar documentos, entre otros.
No obstante, una de sus funcionalidades más controvertidas es la posibilidad de replicar voces humanas a partir de muestras breves. Los usuarios pueden escoger qué tipo de voz quieren darle al asistente. Sin embargo, en el reciente informe de OpenAI, la compañía admitió que, en ciertas ocasiones, la IA podría clonar la voz de las personas que la utilizan. Esta habilidad, que se suma a su ya extensa lista de capacidades, ha generado preocupación debido a la facilidad con la que podría ser mal utilizada.
La capacidad del chatbot para imitar voces abre la puerta a posibles escenarios de suplantación de identidad, fraude o incluso robo de datos. En teoría, con una pequeña muestra de voz, el modelo podría generar réplicas casi perfectas, lo que permitiría a terceros utilizar esta tecnología para fines poco éticos.
¿Cuál fue la respuesta de OpenAI?
OpenAI, la empresa responsable de ChatGPT, ha reconocido los desafíos que surgen con esta nueva capacidad de inteligencia artificial. En respuesta a las preocupaciones sobre la imitación de voces, la compañía ha implementado medidas para intentar mitigar los riesgos.
«La generación de voz también puede ocurrir en contextos no conflictivos, como al utilizar esta función para activar el modo de voz avanzado de ChatGPT. Durante las pruebas, además, identificamos algunos casos en los que el modelo generó, de manera no intencionada, una respuesta que imitaba la voz del usuario», explicó la compañía en su informe.
«A pesar de que la emulación de voz involuntaria sigue siendo un punto débil del modelo, utilizamos los clasificadores secundarios para asegurarnos de que la conversación sea interrumpida si esto ocurre. De esta forma, nos aseguramos de que el riesgo de generación de voz involuntaria sea el menor posible«, aseguró OpenAI en el texto.
Además, OpenAI ha anunciado que está trabajando en desarrollar políticas de uso más estrictas y en mejorar la transparencia en cuanto a cómo se utiliza la tecnología.