Noti-Economia

Noticias de economía

Noti-Economia: ¿Es seguro preguntar a ChatGPT dónde invertir? La CNMV advierte sobre los riesgos

La inteligencia artificial está revolucionando múltiples sectores, y el mundo de la inversión no es una excepción. Sin embargo, confiar ciegamente en herramientas como ChatGPT para tomar decisiones financieras puede ser una receta para el desastre. Así lo advierte la Comisión Nacional del Mercado de Valores (CNMV), que se ha sumado a una campaña del supervisor europeo de los mercados (ESMA) para alertar a los inversores sobre los peligros de depender de la IA en sus estrategias de inversión.

Según la ESMA, muchas herramientas basadas en inteligencia artificial pueden generar información inexacta, ya que sus respuestas se construyen a partir de datos que podrían estar desactualizados, incompletos o incluso incorrectos. “Las herramientas de IA que ofrecen ideas de inversión pueden inducir a error a los inversores, generando expectativas poco realistas o basadas en datos inadecuados”, señala el organismo europeo.

¿Puede la IA sustituir a un asesor financiero?

El auge de la IA ha llevado a algunas entidades a ofrecer productos de inversión automatizados. A través de cuestionarios, los algoritmos determinan el perfil de riesgo del usuario y le proponen una asignación de activos sin necesidad de interacción humana. Aunque estos servicios suelen contar con cierto grado de supervisión, el problema surge cuando los inversores particulares recurren a herramientas de IA de uso general —como ChatGPT— en busca de recomendaciones de inversión sin ningún tipo de filtro o regulación.

La ESMA subraya que en los mercados financieros las certezas son pocas y que confiar en predicciones generadas por IA puede ser peligroso. “Desconfíe de sitios web y aplicaciones que afirman su capacidad para predecir con exactitud los precios futuros de los valores”, advierte la entidad.

Inversores más desprotegidos y sin garantías

Uno de los principales riesgos que señala la CNMV es la falta de protección para los inversores que siguen las recomendaciones de la IA. Si algo sale mal, no existe la posibilidad de recurrir a un defensor financiero o a un mecanismo de resolución de conflictos. “Las herramientas en línea de IA accesibles al público no tienen ninguna obligación de actuar en su interés”, recalca el regulador.

Además, dado el carácter experimental de muchos modelos de inteligencia artificial, ni siquiera sus propios

Ver fuente