Editorial 53
Editorial 53
¿Un submarino sabe nadar?
¿Un submarino sabe nadar? La pregunta que alguna vez me formulara el profesor Javier Blanco, experto en Inteligencia Artificial de la Universidad Nacional de Córdoba, me pareció en su momento divertida para poder empezar a entender estas nuevas tecnologías desde el costado más accesible a la mayoría de las personas que usamos a diario alguna mediación técnica con el mundo en que vivimos.
Desde el 5 al 7 de setiembre tuvo lugar el Festival “Creatividad, educación e IA. Nuevas perspectivas sobre la convivencia” que organizamos en Artlab junto con ellos y el Goethe Institut de Buenos Aires. La ocasión nos sirvió para pensar en algunos asuntos más urgentes vinculados a esta tecnología, identificar preguntas y problemas, pero también perderle el miedo y entenderla.
Por eso celebro particularmente que hayan sido días de tanta concurrencia, que las dos mesas que organizó Fundación Medifé -sobre las posibilidades de su legislación y la del problema de sesgos en datos y resultados- congregaron mucho público entusiasta y curioso y que la presencia del invitado alemán Boris Eldagsen, reconocido fotógrafo y experto en el tratamiento de imágenes con IA.
Comparto algunas de las cosas que pude sacar en limpio. Los invito, además, a explorar las creación artísticas que se realizan por ese nuevo medio tecnológico y a -retomando la pregunta del profe Blanco- a pensar que no se trata de antropomorfizar una tecnología, pensarla como si fuese un humano, sino de conocer más y temer menos. Es un gran tema de gobernanza.
Algunos de los desafíos epistémicos del uso de la Inteligencia Artificial (IA) incluyen:
1. Sesgo algorítmico: los algoritmos pueden perpetuar sesgos (distorsión de los resultados por una influencia injusta o parcial) existentes en los datos de entrenamiento, lo que puede llevar a resultados injustos o discriminatorios. Por ejemplo, cuando los programas de reconocimiento facial se elaboran con datos de personas blancas y entonces no se reconocen caras de otras etnias.
2. Falta de transparencia: las decisiones tomadas por la IA pueden ser opacas, lo que dificulta entender cómo se llegó a una determinada conclusión.
3. Limitaciones en la comprensión: la IA puede carecer de comprensión contextual y semántica, lo que puede llevar a malinterpretaciones o errores.
4. Dependencia de datos: la IA requiere grandes cantidades de datos de alta calidad, lo que puede ser un desafío en algunos dominios.
5. Riesgo de manipulación: la IA puede ser vulnerable a manipulaciones o ataques maliciosos.
6. Problemas éticos: el uso de la IA plantea cuestiones éticas, como la privacidad, la responsabilidad y el impacto en el empleo. En nuestro país falta mucha legislación sobre datos personales
7. Desafíos de interpretación: la interpretación de los resultados de la IA puede ser difícil, especialmente en dominios complejos. Por eso estas ciencias necesitan de más personas que tengan deseos de estudiarlas, transdisciplinariamente.
8. Falta de explicabilidad: la IA puede carecer de explicabilidad, lo que dificulta entender las decisiones tomadas.
9. Riesgo de sobreconfianza: la confianza excesiva en la IA puede llevar a errores o malas decisiones.
10. Desafíos de evaluación: evaluar el rendimiento de la IA puede ser difícil, especialmente en entornos complejos.
Estos desafíos epistémicos destacan la necesidad de abordar los aspectos éticos, metodológicos y técnicos del uso de la IA para garantizar su uso responsable y efectivo. Pero también es enorme el avance, un modo nuevo de disponer de información de manera veloz y segura.
Este campo de las nuevas tecnologías es un área que interesa mucho, en la que debemos -como Fundación que promueve el conocimiento- generar oportunidades de reflexión.
Que tengamos un buen mes.
Daniela Gutierrez
Gerenta General
Fundación Medifé