OpenAI se muestra extremadamente a la defensiva sobre su generador de voz por IA

Por segunda vez en cuestión de unas pocas semanas, OpenAI se ha visto en la tesitura de tener que dar explicaciones acerca de una de sus herramientas de inteligencia artificial. La desarrolladora de ChatGPT le ha recordado a todo el mundo que, a día de hoy, su programa para convertir texto en audio no está disponible de forma generalizada. Visto lo visto, puede que nunca lo esté.

«Es importante que todo el mundo entienda hacia dónde se dirige esta tecnología, tanto si al final la implantamos nosotros como si no», ha asegurado OpenAI a través de un comunicado que fue publicado en su página web el viernes. «Por eso queremos explicar cómo funciona el modelo, cómo lo utilizamos para la investigación y la educación, y cómo estamos implementando nuestras medidas de seguridad».

A finales del año pasado, la empresa dirigida por Sam Altman compartió con un pequeño grupo de usuarios ajenos a OpenAI su motor de voz, que se basa en entradas de texto y clips de audio de 15 segundos de voces humanas para «generar un habla de sonido natural que se asemeja mucho al interlocutor original». La herramienta puede crear voces que suenan convincentemente humanas en varios idiomas.

En aquel momento, la startup de IA indicó que había decidido poner a prueba esta tecnología, pero no difundirla ampliamente para «reforzar la resistencia de la sociedad» frente a la amenaza de «modelos generativos cada vez más convincentes».

Como parte de esos esfuerzos, OpenAI señaló que estaba trabajando activamente en la eliminación gradual de la autenticación basada en la voz para acceder a cuentas bancarias, explorando políticas para proteger el uso de las voces de los individuos en la inteligencia artificial, educando al público sobre los riesgos de la IA y acelerando el progreso en el seguimiento de contenidos audiovisuales, para que los usuarios sepan si están interactuando con contenido real o sintético.

Aun así, y a pesar del empeño de la desarrolladora de ChatGPT, el miedo a esta tecnología persiste.

El responsable de inteligencia artificial de la Administración Biden, Bruce Reed, admitió en una ocasión que la clonación de voces era lo único que le quitaba el sueño.

Por su parte, la Comisión Federal de Comercio estadounidense (FTC, por sus siglas en inglés) afirmó en marzo que los estafadores estaban utilizando la IA para mejorar su trabajo, valiéndose de herramientas de clonación de voz que hacen más difícil distinguir entre las voces generadas por la inteligencia artificial y las voces humanas.

En su comunicado de este viernes, OpenAI trataba de disipar la preocupaciones: «Seguimos colaborando con socios estadounidenses e internacionales de los sectores de la administración pública, los medios de comunicación, el entretenimiento, la educación y la sociedad civil, entre otros, para asegurarnos de que incorporamos sus opiniones a medida que seguimos avanzando».

La desarrolladora de ChatGPT ha reconocido eso sí que, una vez que el Voice Engine esté equipado con su último modelo de IA (GPT4o), surgirán nuevas amenazas. Internamente, la compañía asegura que está «trabajando activamente en GPT-4o para identificar y abordar riesgos conocidos e imprevistos en diversos campos, como la psicología social, la parcialidad y la imparcialidad, o la desinformación».

La cuestión más importante, por supuesto, es qué ocurrirá cuando el uso de esta tecnología se generalice. Sin embargo, parece que OpenAI también se está preparando para cuando eso suceda.

Business Insider ha tratado de ponerse en contacto con OpenAI, pero por ahora no ha obtenido respuesta.

Lakshmi Varanasi, Ramón Armero

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *