El Futuro de la IA requiere de ética
¿Por qué la IA requiere de ética y responsabilidad?
Tras muchos años de debate, la Unión Europea llega a un acuerdo provisional sobre la Ley de Inteligencia Artificial. Esta Ley, define y regula aparentemente los usos de IA y se espera que entre en vigor en el año 2026.
Se trata de un reglamento que contempla obligaciones, normas y reglas claras, por las que debe regirse una tecnología con el objetivo de garantizar que los sistemas de IA utilizados en la Unión Europea (UE), respeten derechos fundamentales.
Esta Ley aparentemente establece parámetros legales muy exhaustivos sobre el uso de la IA, pero hay quienes también apuntan a que se trata de una ley que impulsará la innovación, al mismo tiempo que contempla derechos y libertades de acuerdo con los valores de la UE.
Existen principios éticos que se aplican a la inteligencia artificial. ¿Cuáles?
Con cualquier tipo de tecnología poderosa, como es el caso de la IA, hay oportunidades y riesgos. Es importante recordar que es solo tecnología; lo importante es cómo la usen las personas, lo que determina las oportunidades y los riesgos. Ya se sabe que la IA puede tener un impacto enorme en la sociedad y desde nuestro punto de vista, será muy determinante que todo uso que se haga con IA esté alineado con principios éticos.
Para nadie es un secreto que la IA puede llegar a ser muy beneficiosa para la sociedad. Su uso puede influir en el pensamiento humano y puede utilizarse para acelerar el progreso hacia un desarrollo sostenible.
Sin embargo, también puede suponer que exista un riesgo muy elevado del uso malicioso de la tecnología, donde no exista un uso ético de la IA.
Los sistemas de IA se entienden como sistemas que tienen la capacidad de procesar automáticamente datos e información de una manera que se asemeja al comportamiento humano inteligente y, por lo general, incluyen aspectos de razonamiento, aprendizaje, percepción, predicción, planificación o control. Un “enfoque ético” del uso de la inteligencia artificial (“ética de la IA”) se define como aquel que:
“Sea coherente con la Carta de las Naciones Unidas, respetando todas las normas aplicables del derecho internacional de los derechos humanos, incluido el derecho a la privacidad, eso implica la evaluación de dicha consistencia en todas las etapas del ciclo de vida de la IA”
Los principios éticos que se contemplen en el uso de la IA deben ser la base para que las organizaciones tomen decisiones sobre cómo desarrollar, diseñar, implementar y utilizar sistemas de IA, incluidos múltiples sistemas de IA que interactúan, de una manera que sea confiable y pongan en el centro la dignidad humana, la igualdad de todos los seres humanos, la preservación del medio ambiente, la biodiversidad y los ecosistemas, el respeto por la diversidad cultural y la responsabilidad de los datos.
¿Cuáles son los riesgos reales de la IA?
Desde TechGenius creemos que el desarrollo no es sólo tecnológico, también es ético y moral. El principal riesgo es utilizar las herramientas tecnológicas sin ningún tipo de ética ni moral. Los principios éticos no son algo que se determine solo, es algo que debemos construir entre todos. Cuando hablamos de definir principios éticos en IA creemos deben confluir diferentes tipos de expertos, incluidos científicos sociales, especialistas en ética, antropólogos, personas con experiencia en el campo social y técnicos.
Consideramos que hay enormes oportunidades y también riesgos con la IA. Y será siempre la aplicación humana de esta tecnología la que finalmente decide cómo va a ser utilizada. Tenemos que hacer uso de las posibilidades positivas de esta tecnología. Utilizarla para avanzar y traspasar los límites de lo que podemos lograr. Pero eso no significa que seamos ignorantes de los riesgos. En términos de ser audaces, debemos asegurarnos de que estamos usando la IA para hacer el bien.
El reto está en centrarnos en el lado real de las cosas. Porque hay funciones interesantes y poderosas que hacen parte de los beneficios positivos de la IA. No olvidemos que IA es solo tecnología, la pregunta es cómo la van a usar los seres humanos y si están basándose en los principios correctos.
¿Es necesaria la regulación?
En este momento legisladores en todo el mundo están pensando en cómo protegernos de estos posibles escenarios de pesadilla o mal uso de la IA. Algunos países han organizado cumbres para analizar los riesgos de la IA, siendo la UE pionera en la regulación de la IA dentro de un marco legal. No hacer nada, es una posibilidad arriesgada, pero exagerar en la regulación de la IA también puede sofocar la innovación.
En términos generales, siempre tiene que haber un equilibrio entre la innovación y las directrices y salvaguardas para implementarlas. Se debe trabajar en la implementación de leyes donde se asegure el uso responsable y ético de la tecnología, más que en restricciones limitantes del uso de la IA. Es la combinación de innovación con responsabilidad lo que realmente nos permitirá aprovechar el poder de la IA.
No podemos obviar que la IA por ejemplo, va a resolver grandes problemas al desarrollar nuevos medicamentos, encontrar nuevos elementos (la IA de Google ha encontrado 2,2 millones de materiales desconocidos por la ciencia); combatir el cambio climático. Hoy en día, la IA está ayudando a los médicos a detectar con más precisión diferentes tipos de enfermedades. No se trata de temor, sino de ser consciente de los riesgos potenciales. Y de cómo se pueden mitigar.
A veces olvidamos que la IA nunca podrá reemplazar la interacción humana. Y no importa cuántas respuestas nos dé Bard o ChatGPT y cuánta personalidad parezcan tener, siempre es importante recordar que se está interactuando tecnológicamente y que en realidad no se está conversando con un ser humano. Somos los seres humanos, quienes podemos y debemos poner los límites desde el uso del sentido común y la responsabilidad social.
Para que la UE tenga éxito y lidere el desarrollo, la adopción y el uso de una Inteligencia Artificial basada en valores europeos, debe ser prioritaria una aplicación fluida de la Ley de Inteligencia Artificial con todas las garantías jurídicas para las partes afectadas. Es decir, que exista una adopción masiva de una IA que esta alineada con valores, derechos y libertades fundamentales, que sea inclusiva, sostenible y centrada en el ser humano desde una perspectiva positiva.