El ejecutivo considera que el uso masivo puede propagar desinformación si no se verifican los datos generados
Sam Altman, director ejecutivo de OpenAI, hizo una advertencia en el podcast oficial de la compañía para lanzar una advertencia sobre los riesgos de depositar demasiada confianza en la inteligencia artificial.
A pesar de la importancia que le da y el poder que considera que tiene para cambiar el mercado laboral, considera que no se debe dejar todo en sus manos y el filtro humano es necesario.
Cuál fue la advertencia de Altman sobre la IA
Sam Altman señaló que mucha gente coloca una confianza casi total en la plataforma, un fenómeno que describió como “interesante” y a la vez potencialmente peligroso.
“La gente tiene un alto grado de confianza en ChatGPT, lo cual es interesante, porque la IA alucina. Debería ser la tecnología en la que no se debe confiar tanto”, declaró Altman en diálogo con el tecnólogo Andrew Mayne.
A través de declaraciones similares en sucesivas entrevistas, Altman remarcó que los usuarios deben aproximarse a ChatGPT y a cualquier sistema basado en IA con escepticismo saludable, del mismo modo en que evalúan la credibilidad de otras fuentes o nuevas tecnologías.
El ejecutivo subrayó el carácter experimental de muchas de las funciones habilitadas por OpenAI y la constante evolución del producto, recalcando que la inteligencia artificial, a pesar de su progreso y capacidades impresionantes, todavía presenta limitaciones estructurales y técnicas que no conviene subestimar.
Cuál es el motivo por el que se debe desconfiar de la IA
Entre los motivos principales que esgrime Altman para pedir cautela figura la llamada “alucinación” de las inteligencias artificiales. Técnicamente, este fenómeno implica que los modelos de lenguaje de gran envergadura, como ChatGPT, pueden generar respuestas erróneas, desconocidas o incluso directamente falsas, aun si dichas respuestas parecen convincentes o correctas en la forma.
Altman explicó que esto se debe a las limitaciones propias de la tecnología actual, además del modo en que los modelos procesan y predicen las secuencias lingüísticas. Estas “alucinaciones” pueden tener consecuencias serias, especialmente cuando la IA es consultada en contextos profesionales o sociales en los que se espera precisión y fiabilidad.
“La IA alucina”, reiteró Altman al público del podcast oficial de OpenAI. La expresión resume una realidad: los sistemas, por avanzados que sean, pueden comunicar datos inexactos, detalles confusos o información errónea.
Dar por sentado que todo lo que produce una IA es correcto, comporta riesgos equivalentes a los de cualquier fuente no verificada, advirtió el ejecutivo, quien enfatizó la importancia de emplear ChatGPT como herramienta y no como fuente de verdad absoluta.
Advirtió que millones de personas ya recurren diariamente a ChatGPT y otras soluciones similares para tareas rutinarias, trabajos académicos, análisis de datos y consultas de diverso tipo. Este uso masivo, mezclado con una confianza indebida, puede conducir a la difusión de datos inexactos y contribuir a la desinformación.
Consejos de Sam Altman para un uso responsable de la inteligencia artificial
En sus diferentes apariciones públicas, Altman insistió en la necesidad de que los usuarios consulten siempre varias fuentes, en especial oficiales o fiables, cuando busquen información a través de herramientas de IA.
Explicó que se debe exigir a sistemas como ChatGPT que referencien fuentes externas de adecuadas credenciales. “Siempre hay que pedir información especificando fuentes oficiales como principales”, aconsejó Altman, sugiriendo que no conviene olvidar que se trata solo de una tecnología auxiliar.
Insistió en que, por más capacidades que presente, la IA debe ser tomada solo como una ayuda tecnológica y nunca como un asistente virtual completamente fiable.
De acuerdo con el CEO, el rol de estos sistemas debe compararse con el de los buscadores de internet o las plataformas de redes sociales, que también pueden entregar información parcial, sesgada o manipulada para determinados fines, como modelos de monetización publicitaria.
Por otra parte, Altman abordó la cuestión de la transparencia y el compromiso ético de OpenAI con la comunidad. Señaló que cualquier iniciativa para monetizar ChatGPT—por ejemplo, a través de anuncios o tarifas de transacción—tendría que ser clara y no comprometer la integridad de las respuestas del sistema.
“El umbral de prueba tiene que ser muy alto, y debe quedar claro para los usuarios que la plataforma no manipula la salida del modelo de lenguaje”, enfatizó. Altman aseguró que cualquier manipulación para favorecer al que pague más destruiría la confianza y dañaría la reputación de la IA.
Fuente: Infobae