LA @

IA:

¿Me puedo fiar de ti?

GABRIEL CRUZ
La IA puede tener “sesgos” procedentes de la información con la que se ha educado y acabar dando respuestas inexactas o incluso discriminatorias.
Para algunos, la información que proporciona la Inteligencia Artificial es casi dogma de fe. Pero hasta ella misma reconoce que se equivoca. Depende de cómo la use para que acierte. Por si acaso, este reportaje lo ha escrito un humano del que, en un principio, se puede fiar.

Aquí no nos andamos por las ramas. Le preguntamos directamente a Gemini, la inteligencia artificial de Google: “¿Eres fiable?” y nos responde: “La IA no es completamente fiable; su fiabilidad depende del ámbito y se ve limitada por la calidad de sus datos de entrenamiento, posibles sesgos y vulnerabilidades a ataques”.  Desde el principio, le reconocemos una honestidad fuera de lo común. Si le pregunta a una persona si es fiable: ¿admitiría que no lo es? Aparte de eso, seguro que alguna vez se ha visto atrapado en un bucle de conversación de un servicio de atención al cliente atendido por una IA. Seguro que habrá deseado ser atendido por un humano.

 


UNA IA ENTRENADA EN MEDICINA PUEDE DETERMINAR SI UN PUNTO EN UNA ECOGRAFÍA ES UN TUMOR INCIPIENTE


 

Sesgos y contexto

La IA son algoritmos. Es decir, un programa que da instrucciones según la información que le entra. Básicamente: si en una foto detecta manga corta y sombrero determina que hace sol. Si es una IA entrenada en medicina puede determinar si un punto en una ecografía es un tumor incipiente. Para conseguir esos patrones, la IA se alimenta de millones y millones datos que le damos los propios humanos o bien de información a través de internet o de decenas de miles de personas que entrenan con esos datos. Por ejemplo, ven miles de fotos y señalan donde hay un sombrero para que la IA sepa lo que es un sombrero. A partir de ahí la IA extrae patrones y después da sus respuestas.  Es decir, a la IA se la educa. Por tanto, puede tener “sesgos” procedentes de la información con la que se ha educado y acabar dando respuestas inexactas o incluso discriminatorias. Por ejemplo, en 2018 Amazon descartó una IA de reclutamiento porque penalizaba los currículos que contenían la palabra “mujeres”. Recientemente, el Gobierno de Suecia eliminó una aplicación de IA de la Agencia de Seguridad Social (Försäkringskassan) porque discriminaba a las franjas desfavorecidas. Las seleccionaba injustamente para inspecciones de fraude en prestaciones sociales.

Alucina, vecina

Jennifer Golbeck es especialista en computación. En una charla TED de hace un año señaló que “en un boletín resumo discusiones de foros de extrema derecha. Descargo esos datos y uso ChatGPT para resumirlos. Pero tengo que corregirlo todos los días porque malinterpreta cosas que saca de contexto”. En España, cuando coloquialmente decimos tacos en sentido afectivo o de admiración la IA los considera como insultos.

El caso es que la IA nunca dejará de contestar. Pero cuando no sabe la respuesta genera lo que se denominan “alucinaciones”. Es decir, una información inventada, porque no se la entrenado con los suficientes datos. Por eso la IA ha contribuido a la desinformación: por su capacidad para generar contenidos falsos. También puede enfocarse para detectar bulos si ha sido nutrida con los datos correctos y contrasta en diferentes fuentes. Por ejemplo, la IA Perplexity que muestra de forma bien visible las fuentes de donde ha sacado la información.

Rubén Correa es abogado y presidente de la Cámara Peruana de IA. Nos atiende desde Oviedo donde pasa largas temporadas. Gran conocedor de la IA y su aplicación al mundo legal nos asegura que “la IA con la información necesaria es más fiable que un humano si le das el contexto y haces la pregunta correcta”. Nos recuerda el experimento en Estados Unidos supervisado por la Universidad de Stanford en el que «veinte abogados experimentados se enfrentaron al algoritmo de IA de LawGeex. La plataforma de revisión de contratos logró una precisión del 94 % al identificar riesgos en acuerdos de confidencialidad. Los letrados alcanzaron menos, el 85 %. Pero lo más destacable es que el abogado más rápido en acertar tardó 51 minutos, la IA solo 26 segundos”. También nos recuerda cuando Bill Gates, el fundador de Microsoft, dijo a San Altman que invertiría en su OpenAI si era capaz de superar un examen de Colocación Avanzada de Biología [AP Bio], parecido a un examen de acceso a la universidad: “De las 60 preguntas de un test acertó 59 y redactó respuestas excepcionales a seis preguntas abiertas. Un experto externo calificó el examen de OpenAi con un 5, la puntuación más alta posible”.

 


EN 2018 AMAZON DESCARTÓ UNA IA DE RECLUTAMIENTO PORQUE PENALIZABA LOS CURRÍCULOS QUE CONTENÍAN LA PALABRA “MUJERES”


 

¿Compensa el gasto?

Lo que destaca Rubén Correa es que la inteligencia depende de la velocidad y ahí la IA es imbatible. Por ejemplo, en medicina, con datos de millones de pacientes saca patrones y detecta en segundos posibles enfermedades de un paciente examinando una resonancia. Sin embargo, también da errores como los descubiertos por las investigadoras del CSIC Miriam Cobo y Lara Lloret en su libro Inteligencia artificial en medicina. Entre ellos, un algoritmo para detectar casos de neumonía por COVID-19 a partir de radiografías.  Descubrieron que el sistema “había aprendido que si un paciente se hacía la radiografía encogido de hombros (seguramente porque le costaba respirar) lo identificaba como enfermo de neumonía”. Es decir, podías estar sano, subir los hombros en la prueba de rayos X y ser erróneamente diagnosticado. Al menos, identificaron el problema antes de usar esa IA en la práctica clínica real. Otros sistemas de IA los retiraron, pero tras empezar a funcionar. Le pasó al MeQA (Sistema automático de respuestas a preguntas sobre medicamentos de usos humano) del Ministerio de Sanidad. Cometía fallos sobre medicamentos. Ahora, al entrar en su web un letrero con fondo azul dice que “han detectado errores y que volverá a estar disponible”. Funcionó solo dos días desde el 13 de mayo y costó 365.000 euros.  

Viendo esto: ¿es rentable la inversión en IA? En 2025 el gasto en IA habrá sido de unos 553.000 millones de euros, según la firma de análisis Gartner. Piense que el coste de entrenar la IA y el mantenimiento de sus servidores es altísimo. Sin embargo, en los últimos años, según Jennifer Golbeck, el beneficio de la IA es de solo 2.500 millones de euros. ¿Quién querrá seguir invirtiendo en algo tan deficitario? De hecho, ChatGPT, la aplicación más usada de la IA en el año 2024, tuvo 5.000 millones de pérdidas. Incluso, Jeff Bezzos, el multimillonario fundador de Amazon, confesó que la IA puede ser “una burbuja buena” porque “las sociedades se benefician de esos inventos». Ahora bien, hay un dato que hace pensar que remontará y es que, según los datos de SimilarWeb, ChatGPT gana visitas. La gente pasa más tiempo consultando a la IA mientras Google, YouTube o Wikipedia pierden visitas. Es decir: acudimos a una sola fuente: la IA, en vez ir a varias como Google.

Cómo saber si es cierto lo que dice la IA
Es un truco bien sencillo que nos cuenta Rubén Correa. Este experto en inteligencia artificial formula exactamente la misma pregunta a diferentes aplicaciones de IA: Gemini, Copilot, ChatGPT, etc. Cada una trabaja con sus propios datos y sistemas. Así que, si la respuesta coincide, es que posiblemente sea cierta.
¿Por qué estoy triste?  

Preguntas como éstas no son las más apropiadas para una IA. En esto sí que hay unanimidad. Rubén Correa, abogado y presidente de la Cámara Peruana de IA, desaconseja el uso de la IA para cuestiones psicológicas porque no tiene conciencia. “Solo el ser humano tiene conciencia, que es la capacidad de estar presente y de darse cuenta de lo que es”, señala. La psicóloga Marta del Prado nos dice que “las personas que tienen tendencia a la autosuficiencia buscan en la IA un psicólogo que les diga lo que quieren oír. Pero en psicoterapia no es así. A veces tenemos que “remover” y decir cosas que al paciente no le gusta escuchar”.

En este sentido Tomas Wolf, fundador de Huggi Face, una de las empresas punteras centradas en la investigación científica, señaló en la CNBC norteamericana que “la IA actual no logrará ningún avance científico relevante porque intenta complacer a los usuarios en lugar de contradecirlos”. Así pues, parece que la duda humana tiene mucho de certeza, pero, como leyeron al principio, la IA puede tener más de honestidad.

La IA nunca dejará de contestar, pero cuando no sabe la respuesta genera “alucinaciones”, es decir, una información inventada.
PARA SABER MÁS

Aprender sobre Inteligencia Artificial

En internet se anuncian muchos cursos gratuitos de IA. Sin embargo, después de analizarlo con detalle descubrimos que, si bien muchos están financiados por la Unión Europea, no son gratis completamente.
Este de Gemini de Google sí que lo es:

Si quiere avanzar más, aquí tiene esta web de Meta donde hay varios foros de ingenieros de Facebook. Además de cursos introductorios en diferentes campos.

En las entrañas de la IA

La IA “come” datos sin parar para crear patrones. Para ello, hay personas que trabajan como sus entrenadores. Por ejemplo, miran sombreros y marcan a la IA en la pantalla lo que son “sombreros”. En este interesantísimo documental RTVE nos enseña el ejército de personas que trabajan monótonamente para alimentar a la IA. Algunos, incluso, voluntarios en cárceles.