Según el máximo responsable de Scalian Spain, el mercado de la IA precisa de un equilibrio entre regulación, supervisión ciudadana, innovación y ética
Hace unas semanas, Elon Musk realizó una propuesta de compra de Open AI, la empresa de investigación y desarrollo creadora de Chat GPT. Ahora, y tras el intento fallido de bloquear los propósitos comerciales de dicha compañía, el magnate expresa su preocupación por la escasa regulación de la Inteligencia Artificial. Mientras, trabaja con la administración norteamericana en la reducción de gastos a través de la implementación de la IA.
Más allá de la guerra con el CEO de Open AI, Sam Altman, o de las consideraciones sobre el estado actual del mercado de esta herramienta, los analistas denuncian un intento de control por parte del empresario, en un contexto en el que los expertos expresan su preocupación sobre los desequilibrios que el manejo de este estadio de la tecnología pueda acarrear.
Es el caso de Fernando de Águeda, vicepresidente de Scalian y máximo responsable de la firma en España, para quien la IA otorga poder, lo que siempre es un acicate para intentar su control. Esta ya influye significativamente en la vida de la gente: desde los algoritmos que deciden la prioridad de unos contenidos sobre otros en redes sociales hasta modelos que pueden diagnosticar enfermedades o predecir delitos. Si no se controlan, advierte, su uso y desarrollos puede volverse impredecible y peligrosa. Pero la clave no es solo controlarla, sino cómo hacerlo. Ahora bien, el propósito supone un gran desafío, porque «hay que hacerlo de forma responsable, sin frenar su potencial y sin dejarla en las manos equivocadas».
Ese control tiene dos vertientes, técnica y ética. En cuanto al primero, desde Scalian se destacan los siguientes niveles: supervisión humana, límites en la toma de decisiones, filtros y restricciones, explicabilidad y autoría, regulación y legislación.
En relación a la ética, resultan relevantes cuestiones como la protección de datos, la privacidad, la transparencia del algoritmo y la vigilancia contra los abusos y monopolios. Resulta importante en este punto aclarar que la regulación ética no limita la innovación, sino que la potencia y la legitima ante la sociedad, generando confianza y facilitando la adoptación generalizada.
La IA hoy, desigualdad tecnológica y falta de cooperación global
Geopolíticamente hablando, la Inteligencia Artificial está hoy repartida en tres grandes bloques, a los que se unen algunos actores menores. Las potencias son, por este orden, Estados Unidos —donde operan los gigantes tecnológicos (Meta, Amazon, Open AI, Google y Microsoft)—, seguido de China, donde es el gobierno quien tiene el dominio que conlleva irremediablemente al control social y la vigilancia, y a los que se une la Unión Europea, un territorio con mayor vocación ética, pero donde la innovación es menor. Junto a ellos, pero en escalones inferiores, destacan Reino Unido, Japón, Rusia e India.
El impacto de esta distribución es para el CEO de Scalian Spain muy negativo y conduce, en sus propias palabras, a una desigualdad tecnológica brutal y a una notable falta de cooperación global.
En este tablero de monopolios y diferencias regulatorias, surgen diversas cuestiones, la primera de las cuales es si es preciso una regulación global o si, por el contrario, cada país debería esbozar la suya propia. La respuesta del directivo es clara: «El de hoy es un mundo conectado, y la IA no tiene fronteras. Si cada país establece sus propias reglas, será un caos: algunas empresas operarían sin restricciones, mientras otras estarían limitadas. Sin una regulación global, el riesgo de abuso o monopolios será enorme».
¿Una Inteligencia Artificial propia de cada estado?
¿Deberían los estados tener su propia Inteligencia Artificial como recurso para los ciudadanos? Menos rotundo se muestra aquí de Águeda, que responde con otro interrogante, «depende del gobierno. ¿Podría confiarse en una IA manejada por según qué gobierno?» En teoría, una IA gubernamental podría mejorar la eficiencia del Estado, esto es, automatizar trámites, optimizar recursos, facilitar el acceso a servicios públicos. Pero en la práctica, si el gobierno no es transparente ni confiable, ¿qué garantías se tienen de que no usaría la IA para manipulación política o vigilancia masiva?
Si se hace con principios éticos, supervisión ciudadana y transparencia, una IA gubernamental podría ser muy beneficiosa. Pero en un mundo con tanta polarización y desconfianza en las instituciones, suena más a una utopía que a una realidad viable.
En cuanto a la relación entre las compañías tecnológicas y los estados, esta debería llevarse a cabo con límites. La cooperación entre empresas y gobiernos es clave para evitar abusos, pero es preciso vigilar que no se convierta en una excusa para el control masiva o la limitación de la competencia. Lo ideal en este sentido sería un modelo de colaboración regulada, donde las empresas comparten información clave sin comprometer su innovación.
Son las repuestas a algunos de los interrogantes que suscita el imparable avance de la Inteligencia Artificial. En el actual punto de inflexión, finaliza Fernando de Águeda, la IA puede ser una herramienta de progreso o de control masivo. Todo dependerá de quién la controle y con qué propósito. Se necesita un equilibrio entre regulación, supervisión, innovación y ética.
Porque, al final, la pregunta no es porque, para que o si se puede controlar la IA. La verdadera pregunta es: ¿quién debería hacerlo?
Más historias
Interham inicia su camino para reforzar la imagen y reputación del jamón
30 alumnos de la UEM se forman en emprendimiento sostenible en el Hub Empleo Verde de Fundación Konecta
AleaSoft: Temperaturas bajas y menos renovables mantienen precios de mercados europeos sobre los 100 €/MWh