La Inteligencia Artificial (IA) entró de manera vertiginosa en nuestras vidas como, por ejemplo, el ChatGPT o Bard, que ahora participan en casi todas las actividades cotidianas: películas, compras o búsquedas de trabajo, etc. Una publicación en la revista Nature sobre estas herramientas dio cuenta de que entre el 70 y 80 por ciento de su uso tiene consecuencias positivas y lo demás es negativo.
Las IAs son sistemas y programas capaces de replicar tareas propias al igual que un ser humano; a través de algoritmos forman un conjunto de modos para realizar cálculos, resolver trabajos y decidir a partir de la información elaborada. El aprendizaje automático permite que las máquinas se instruyan mediante procesos propios o de otros dispositivos.
Recordemos que la Inteligencia Artificial nació como una rama de la ciencia de la computación en 1956 y sus creadores fueron John McCarthy de la universidad de Stanford, Allen Newell y Herbert Simon, ambos de Carnegie Mellon, y Marvin Minsky del instituto tecnológico de Massachusetts. Todos partían de que las máquinas pueden imitar al cerebro. Al inicio el uso era limitado, sin embargo, en nuestros tiempos se ha generalizado y tiene un enorme potencial, pero a la vez conflictos. Coral Calero, catedrática de lenguajes y sistemas informáticos de la Universidad de Castilla - La Mancha, defiende a la IA como una solución y no como un problema.
La IA tiene capacidad de identificar alteraciones del genoma que provocan enfermedades o también de reducir a días el hallazgo de moléculas en sustancias medicinales; además puede ayudar a optimizar procesos industriales, o diagnosticar a través de imágenes. Asimismo, genera textos, videos, sonidos, recrea personajes, elige películas, etc. Esta tecnología también la utilizan para secuestrar datos, desprestigiar a una persona, manipular precios, atacar a competidores laborales, influir en la opinión pública, crear y diseminar propaganda desinformando.
La Unión Europea (UE) ha redactado un reglamento para regular la IA en función de cuatro niveles de riesgo:
- Aplicaciones que estarán prohibidas cuando manipulen sistemas de clasificación social o identificación biométrica remota o en tiempo real.
- De alto riesgo. Modelos que puedan perjudicar la seguridad o los derechos como, por ejemplo, control del automóvil autónomo, control de fronteras o ámbito laboral.
- Inteligencia generativa. Se exigirán transparencias como aplicaciones tipo ChatGPT o Bard.
- Riesgos limitados. Obligados a informar de forma fehaciente a los usuarios ante una creación por parte IA para no producir deepfakes.
Noticias relacionadas