Noti-Economia

Noticias de economía

¿Bonos catastróficos para la IA? Por qué la nueva gran apuesta regulatoria es un error sistémico

La inteligencia artificial (IA) genera pánico regulatorio y la propuesta más reciente ahora es la creación de bonos catastróficos para IA.

Los bonos catastróficos son instrumentos financieros creados para desastres naturales. Una aseguradora emite un bono que paga intereses altos a los inversores y, si ocurre el desastre especificado, por ejemplo un huracán categoría 5 o un terremoto de magnitud 7.5; los inversores pierden su capital y ese dinero cubre las pérdidas. En realidad es transferir riesgo extremo a los mercados de capitales.

La propuesta para IA es idéntica. Así, los desarrolladores emitirán bonos donde inversores asumen el riesgo de «catástrofes de IA» a cambio de rendimientos altos. Si un sistema causa daño masivo, el bono paga. La idea es que esto cubra daños e incentive mejores prácticas mediante precios variables, así los desarrollos más seguros pagarán primas menores.

Suena ingenioso. Sin embargo, es absurdo.

Por qué no funciona

Los bonos catastróficos funcionan para huracanes porque son estadísticamente modelables con siglos de datos, geográficamente delimitados, y por ejemplo, destruyen Florida, no el planeta. También son económicamente cuantificables y se cuentan casas y se suman pérdidas, por caso.

La IA no tiene ninguna de estas propiedades. No hay datos históricos ya que las catástrofes de IA nunca ocurrieron. No hay delimitación geográfica y si un sistema falla se propaga globalmente en minutos. No hay una cuantificación posible porque si causa verdadera disrupción sistémica, el colapso económico hace irrelevante cualquier fondo.

Pero el problema fundamental es quién define qué es una «catástrofe de IA». Los bonos necesitan «triggers» o condiciones específicas que activan el pago. Para huracanes es simple porque hay vientos sobre 250 km/h en zona X. Para IA, ¿qué? ¿Un sistema que «gana acceso autónomo a recursos»? ¿»Causa daño sistémico»? ¿»Induce psicosis»? Cada respuesta genera diez preguntas más. El resultado serán litigios interminables, años de disputa y víctimas sin compensar.

El ascensor y la escalera

Durante décadas, los edificios tenían carteles en los ascensores: «Habiendo escaleras, el edificio no se hace responsable por el uso del ascensor. Úselo bajo su propio riesgo.»

Era simple, claro y funcionaba.

Nadie demandaba al edificio porque el ascensor se atascó, y tampoco exigía que el Estado regulara cada cable con auditorías de seguridad catastrófica. Se avisaba y el que avisa no traiciona.

Hoy esa simplicidad es primitiva cuando se proponen bonos catastróficos con la IA, los marcos regulatorios complejos, auditorías obligatorias e índices de riesgo generan un andamiaje de ingeniería financiera y burocracia para resolver un problema que se soluciona con un cartel.

¿Por qué? Porque la cultura contemporánea rechaza la responsabilidad individual. Prefiere sistemas paternalistas donde el Estado «gestiona el riesgo» en nombre de ciudadanos tratados como incapaces de decidir.

imagen-de-inteligencia-artificial
 

La biblioteca y el libro

La IA es como una biblioteca. Seguir las instrucciones de cualquier libro puede ser beneficioso o desastroso, dependiendo del libro y del lector. Nadie propone bonos catastróficos para bibliotecas, ni exige que las editoriales aseguren contra el daño que causan malas ideas.

¿Por qué? Porque se entiende que el conocimiento es una herramienta neutral. La responsabilidad recae en quien lo usa.

Con IA debería ser idéntico: «El uso de esta tecnología corre bajo su exclusiva responsabilidad. Habiendo alternativas—preguntarle a un humano, consultar fuentes tradicionales—usted elige usar inteligencia artificial. Las consecuencias son suyas».

¿Alguien usa un chatbot para decisiones médicas sin consultar a un doctor y sufre consecuencias? Su responsabilidad ¿Alguien confía en IA para inversiones sin verificar y pierde dinero? Su problema ¿Alguien sigue instrucciones para algo ilegal? Su culpa.

No es crueldad, es coherencia con cómo funciona toda otra tecnología en una sociedad libre.

La imposibilidad de regular

La IA es fundamentalmente irregulable. La tecnología evoluciona órdenes de magnitud más rápido que cualquier marco regulatorio. Para cuando se escriben las reglas ya son obsoletas.

Además, la IA es software, por lo tanto, se copia instantáneamente, se distribuye globalmente, se modifica sin límites. A diferencia de plantas nucleares con instalaciones físicas inspeccionables, la IA existe como código. Regular código es como normar ideas. Técnicamente posible en regímenes totalitarios, incompatible con sociedades abiertas.

Las películas y el café

Hoy las películas advierten, «Contiene lenguaje fuerte. Contiene violencia.» Las tazas de café dicen «Cuidado: caliente.» Los paquetes de maní: «Contiene maní.»

Son advertencias absurdas, y obvias hasta el ridículo. Pero existen porque la alternativa son demandas millonarias.

Paradójicamente, esta misma cultura que acepta advertencias triviales para todo rechaza advertencias simples para IA. En lugar de «úselo bajo su riesgo», exige sistemas complejos, bonos financieros y marcos regulatorios.

¿Por qué? Porque con IA hay dinero e ideología en juego. Crear mercados de bonos genera comisiones, empleos y consultorías, es decir, la construcción de aparatos regulatorios genera poder burocrático. Además, hay desconfianza ideológica con la creencia de que una tecnología poderosa no debe estar en manos de individuos sin supervisión.

Responsabilidad sin paternalismo

La responsabilidad individual no significa ausencia de consecuencias para los desarrolladores. Si un laboratorio miente sobre capacidades, eso es fraude y es aplicable con leyes existentes. Si oculta fallas conocidas, eso es negligencia, también aplicable con leyes existentes. Si alguien usa IA para crímenes, esa persona es responsable, y nuevamente es aplicable con leyes existentes.

No hacen falta nuevas regulaciones sino advertencias claras: «Este sistema puede generar información incorrecta. Puede producir contenido dañino. Puede cometer errores graves. Úselo bajo su riesgo. Verifique información importante independientemente.»

Y junto con eso, la educación porque las personas necesitan entender que usar tecnología implica responsabilidad por las decisiones tomadas con ella.

Los costos ocultos

Cada sistema regulatorio tiene costos masivos. Los bonos catastróficos ralentizan la innovación, cada desarrollador debe navegar complejidad legal, pagar primas y someterse a auditorías. Esto favorece a grandes corporaciones. Por lo tanto, las startups quedan excluidas y el resultado son oligopolios tecnológicos creados por la regulación que supuestamente los controla.

Asimismo, crean una burocracia parasitaria donde surgen industrias enteras de consultores, auditores y analistas. Miles administrando el sistema sin crear valor, con costos trasladados a los usuarios.

Generan falsa seguridad, porque si hay bonos y regulación, la gente asume que el riesgo está «gestionado» y baja la guardia. Y cuando algo falla, el daño es mayor porque nadie estaba preparado.

Sin embargo, la realidad es que no previenen catástrofes reales, si un evento de IA es verdaderamente cataclísmico, ningún bono importa.

La libertad implica riesgo

La objeción obvia: «¿Qué pasa con quienes no entienden los riesgos?».

Esta objeción aplica a todo. ¿Qué pasa con quienes no entienden los riesgos de conducir? O de usar electricidad, o invertir en la Bolsa…

En todos estos casos, la sociedad decidió, correctamente, que la solución no es prohibir o regular hasta la parálisis. La solución es educación, advertencias claras, y permitir que las personas aprendan.

La alternativa es infantilizar a la sociedad y tratar a todos como incapaces. Construir Estados niñera donde cada decisión demanda un permiso. Esa no es una sociedad libre, está tutelada.

La libertad implica riesgo y la pregunta es quién decide cómo gestionarlo, individuos informados o burócratas.

Los bonos catastróficos para IA toman herramientas diseñadas para huracanes y la aplican a tecnología que no tiene las características necesarias. El resultado es una complejidad impresionante que no gestiona riesgo real, pero crea empleos para consultores y poder para reguladores.

La solución real es simple con advertencias claras y responsabilidad individual. «Habiendo alternativas, el uso de esta tecnología corre bajo su exclusiva responsabilidad» como los carteles en los ascensores. El que avisa no traiciona.

Las cosas como son.



Ver fuente