fbpx

¿Hay que desconfiar, ahora más que nunca, de la inteligencia artificial?

La COVID-19 ha estimulado una considerable cobertura de noticias sobre las formas en que la inteligencia artificial (IA) puede combatir la propagación de la pandemia. Como muchas herramientas, la IA tiene un papel que desempeñar, pero su efecto en el brote es probablemente más pequeño del que muchos creen; si bien, esto podría cambiar en el futuro. Esto es, al menos, lo que afirma Brookings Institutions en un reciente informe en el que expone un “escepticismo saludable” hacia la inteligencia artificial, poniendo como ejemplo los desarrollos para ayudar a frenar al coronavirus.

¿Qué dicen los expertos en la materia? Independientemente del tema que inunda hoy todos los medios, la COVID-19, la inteligencia artificial solo es útil cuando los que saben de esta tecnología la aplican con criterio. A pesar de todo lo que se habla de algoritmos y big data, decidir qué predecir y cómo enmarcar esas predicciones es con frecuencia el aspecto más desafiante de la aplicación de IA. “Predecir efectivamente un problema mal definido es peor que no hacer nada en absoluto”, dicen desde Brooking Institution. Del mismo modo, siempre se requiere experiencia en la materia para saber si los modelos continuarán funcionando en el futuro, o si serán precisos en diferentes grupos de población.

La IA necesita muchos datos

Para aprender a hacer cualquier cosa, la IA necesita toneladas de datos previos con resultados conocidos. Alternativamente, se puede utilizar una simulación computacional integral para entrenar el modelo. Sin uno de estos dos enfoques, la IA no puede hacer nada. Esto explica por qué la inteligencia artificial por sí sola no puede predecir la propagación de nuevas pandemias. “No existe una base de datos de brotes anteriores al de la COVID-19”. Por lo tanto, dicen en Brookings Institution, “adoptar un enfoque escéptico sobre la inteligencia artificial es fundamental para considerar si una empresa gastó bien el tiempo y el dinero para construir un amplio conjunto de datos y aprender de manera efectiva la tarea en cuestión”.

Lamentablemente, no todos están tomando el camino escéptico. “Algunos medios tecnológicos, por ejemplo, han regurgitado las afirmaciones de Baidu de que la IA se puede usar con imágenes térmicas infrarrojas para ver cómo la fiebre es un síntoma de COVID-19. Mientras que Athena Security, que vende software de análisis de video, afirmó que adaptó su sistema de inteligencia artificial para detectar fiebre a partir de datos de imágenes térmicas. Incluso para intentar lo que dicen Baidu y Athena Security, las compañías tendrían que recopilar datos extensos de imágenes térmicas de personas mientras toman simultáneamente su temperatura con un termómetro convencional.

Además de obtener una muestra diversa en edad, género, tamaño… esto también requeriría que muchas de estas personas realmente tengan fiebre, resultado que están tratando de predecir. Si bien existen otras formas potenciales de obtener conjuntos de datos preexistentes, cuestionar las fuentes de datos siempre es una forma significativa de evaluar la viabilidad de un sistema de IA.

¿Hay que desconfiar de la precisión de la IA?

La compañía Alibaba afirma que puede usar IA en imágenes para diagnosticar la COVID-19, y que puede ofrecer este software de diagnóstico a países europeos de forma gratuita. Sin embargo el diagnóstico de la COVID-19 se realiza a través de un proceso llamado reacción en cadena de la polimerasa (PCR), que requiere un equipo especializado y un diagnóstico que dura varias horas con una sensibilidad y efectividad cercana al 100 %. Alibaba dice que su modelo es mucho más rápido y tiene una precisión del 96 %. Sin embargo, dice Brookings Institution en el informe, “no está claro que este porcentaje de precisión sea fiable”. Y dice también que “el 96 % de precisión es sospechosamente alto para cualquier problema de aprendizaje automático”.

Si no se maneja con cuidado, un algoritmo de IA hará todo lo posible para encontrar patrones en los datos que están asociados con el resultado que está tratando de predecir. Sin embargo, estos patrones pueden ser totalmente absurdos y solo parecen funcionar durante el desarrollo. De hecho, un número de precisión inflado puede ser una señal importante de que un modelo de IA no será efectivo. Que Alibaba afirme que su modelo funciona tan bien sin advertencia o autocrítica es sospechoso”.

El sesgo de la IA

Aplicaciones de inteligencia artificial de alto riesgo, dice también Brookings Institutions, generalmente requieren una predicción que no solo sea precisa, sino que también permita la intervención de un humano. Con imágenes térmicas para la detección de la fiebre, se podrían usar sistemas para bloquear la entrada a aeropuertos, supermercados, farmacias y espacios públicos. Pero la evidencia muestra que hasta el 90 % de las personas marcadas con imágenes térmicas pueden ser falsos positivos. En un entorno donde las personas febriles saben que se supone que deben quedarse en casa, esta proporción podría ser mucho mayor. Por lo tanto, si bien evitar que las personas con fiebre (y potencialmente con COVID-19) permitan la transmisión comunitaria es un objetivo significativo, debe existir la voluntad de establecer puntos de control y una prueba de confirmación, o arriesgarse a limitar a la población de manera significativa.

En los nuevos enfoques para usar la IA en circunstancias de alto riesgo, se concluye en el informe, el sesgo debería ser una preocupación seria: en los modelos de inteligencia artificial, da como resultado estimaciones sesgadas que no tienen en cuenta factores como el sexo, grupo étnico o diversidad funcional. A su vez, esto a menudo conduce a resultados discriminatorios, ya que los modelos de IA a menudo se consideran objetivos y neutrales. Si bien la investigación científica ha creado conciencia sobre muchos casos de sesgo de IA, es importante darse cuenta de que el sesgo es más sistémico que anecdótico.

Especialmente para los modelos que involucran humanos, hay tantas fuentes potenciales de sesgo que no se pueden descartar sin una investigación. Si un modelo de IA no tiene sesgos documentados y evaluados, eso debería aumentar la sospecha de un escéptico de que permanecen ocultos, sin resolver y perniciosos.

El futuro brillante de la IA

Si bien el informe de Brookings Institutions adopta una perspectiva deliberadamente escéptica con la inteligencia artificial, su impacto futuro en muchas de estas aplicaciones es brillante. Por ejemplo, si bien el diagnóstico de la COVID-19 con tomografías computarizadas es de valor cuestionable en este momento, el impacto que la IA está teniendo en las imágenes médicas es sustancial. Las aplicaciones emergentes pueden evaluar la malignidad de las anormalidades de los tejidos, estudiar las estructuras esqueléticas y reducir la necesidad de biopsias invasivas. Otras aplicaciones muestran una gran promesa, aunque es demasiado pronto para saber si tendrán un impacto significativo en esta pandemia. “Por ejemplo, los medicamentos diseñados por la inteligencia artificial recientemente están comenzando los ensayos en humanos. Y el uso de IA para resumir miles de trabajos de investigación también puede acelerar los descubrimientos médicos relevantes para la COVID-19”.

Te Puede Interesar…

La IA es una tecnología ampliamente aplicable, pero sus ventajas deben ser cubiertas en una comprensión realista de sus limitaciones, dice Brookings. Con ese fin, el objetivo del informe no es menospreciar ampliamente las contribuciones que la IA puede hacer, sino alentar un ojo crítico y perspicaz para las circunstancias específicas en las que la IA puede ser significativa.

Write a Comment

view all comments

Deja un comentario

A %d blogueros les gusta esto: