Gonzalo Ruiz, economista asociado de Macroconsult
Si bien no se trata de un fenómeno nuevo, la inteligencia artificial (IA) entendida, en términos amplios, como el conjunto de tecnologías que buscan replicar las funciones que cumple el cerebro humano (como el aprendizaje o la creación), ha adquirido durante este último año, especial notoriedad. Esto se ha visto reflejado en el crecimiento del valor de empresas como Nvidia o Symbotic, entre otros, cuyas acciones han escalado en 154% y 189%, respectivamente, durante el último año.
Como suele ocurrir con la emergencia de tecnologías disruptivas, han surgido diversas voces que advierten sobre los peligros de su uso libre y desregulado. Una de las más prominentes, ha sido la de Yuval Harari, quien ha alertado sobre los riesgos del uso de IA para actividades delictivas. Harari ha planteado que, al igual que en la industria farmacéutica, cuyos productos (medicamentos) deben ser evaluados previamente antes de su comercialización en el mercado; debería establecerse un régimen de autorizaciones previas para la introducción de dispositivos o herramientas que utilicen IA, con el fin de asegurar el adecuado control de los riesgos que involucra este tipo de tecnologías.
La propuesta denominada ‘Artificial Intelligence Act’ planteada recientemente por la Unión Europea parece seguir la lógica del historiador israelí. El documento clasifica las herramientas que utilizan IA en función de su nivel de riesgo: inaceptable, alto, limitado y mínimo. El primer grupo involucra aquellas herramientas que puedan afectar derechos fundamentales de las personas así como su seguridad, entre otros; y serían prohibidas. En un segundo lugar, figurarían aquellas que se relacionan con servicios públicos como transporte, educación, justicia, entre otros. En estos casos, la autoridad podría autorizar el uso de estos sistemas, sujetándolo a condicionamientos. En el caso de sistemas de riesgo limitado, se impondrían ciertas obligaciones de información y transparencia; mientras en el último grupo no existiría restricción. Según la propuesta, incumplimientos a la normativa sobre IA por parte de las empresas podría involucrar multas de hasta 6% de sus ingresos globales.
Tras la publicación de la propuesta, 150 compañías líderes en Europa (incluyendo gigantes de la tecnología como Siemens o Airbus) han señalado en una carta abierta, su discrepancia con la regulación propuesta manifestando que la misma es prematura, introduce procesos burocráticos y genera el riesgo de afectar negativamente la competitividad de la región.
La advertencia parece pertinente. Aún se conoce poco sobre los posibles riesgos que involucraría la inteligencia artificial y el establecimiento de un régimen de control previo como el propuesto puede resultar desproporcionado, afectando negativamente el aprovechamiento de la IA en la provisión de servicios beneficiosos para la sociedad. En un contexto como el planteado, un régimen de control ex post a partir de reglas generales, con una supervisión y monitoreo de la evolución del mercado, parece ser lo más razonable. Al menos, por ahora.