Los peligros de utilizar la Inteligencia Artificial en Trabajos Fin de Grado

La Inteligencia Artificial (IA) se ha vuelto omnipresente en nuestra sociedad. Desde los asistentes virtuales como Siri y Alexa, hasta los algoritmos que deciden qué contenido vemos en las redes sociales, la IA nos rodea. Por lo tanto, no es de extrañar que muchos estudiantes decidan construir proyectos de IA para sus Trabajos Fin de Grado (TFG). Sin embargo, el uso de la IA en TFG conlleva varios peligros que los estudiantes deben considerar detenidamente.

👨‍🎓 INDICE DE CONTENIDO
  1. Problemas éticos con los datos y modelos de IA para TFG
  2. Riesgos de seguridad al desplegar modelos de IA para TFG
  3. Falta de recursos computacionales adecuados para TFG de IA
  4. Riesgos de sobre-ingeniería y falta de utilidad práctica en proyectos de IA para TFG
  5. Conclusión: La IA conlleva beneficios pero también riesgos reales en proyectos de TFG de IA

Problemas éticos con los datos y modelos de IA para TFG

Un problema importante con los proyectos de IA es la procedencia de los datos utilizados para entrenar modelos como redes neuronales. La mayoría de los conjuntos de datos públicos provienen de Internet, donde los datos fueron recopilados sin el consentimiento informado de los usuarios. Esto plantea problemas de privacidad y ética en el uso de esos datos confidenciales.

Además, muchos conjuntos de datos contienen sesgos, prejuicios y estereotipos incorporados debido a cómo y por quién fueron recopilados inicialmente. Por ejemplo, la mayoría de los datos de reconocimiento de imágenes provienen de Occidente, por lo que los modelos entrenados en ellos suelen tener un peor rendimiento con otras razas y grupos étnicos. Este sesgo en los datos puede provocar resultados discriminatorios.

Por último, los modelos de IA entrenados por estudiantes suelen ser cajas negras cuyo funcionamiento interno es difícil de entender e interpretar. Esto disminuye la confianza en sus predicciones y puede ocultar problemas como datos sesgados.

Riesgos de seguridad al desplegar modelos de IA para TFG

Otro peligro de construir proyectos de IA es que los modelos y aplicaciones desplegados por estudiantes pueden contener vulnerabilidades de seguridad. Por ejemplo, muchos estudiantes almacenan datos confidenciales como contraseñas, claves API y tokens de acceso en repositorios de código públicos. Esto presenta riesgos de ciberseguridad y privacidad.

Además, las aplicaciones web de IA desplegadas por estudiantes a menudo no siguen prácticas recomendadas de seguridad como el cifrado de datos sensibles. Tampoco suelen realizar tests de penetración para detectar vulnerabilidades. Esto las hace objetivos fáciles para ataques que roben datos de usuarios.

Por último, algunos proyectos de IA pueden utilizar técnicas de aprendizaje por refuerzo donde agentes de IA automatizados aprenden comportamientos potencialmente dañinos a través de prueba y error. Si estos modelos se despliegan sin las debidas salvaguardas, podrían causar daños imprevistos.

Programación didáctica para la enseñanza efectivaProgramación didáctica para la enseñanza efectiva

Falta de recursos computacionales adecuados para TFG de IA

Construir y entrenar modelos de IA avanzados requiere hardware especializado como GPUs o TPUs que tienen un alto costo. Sin embargo, la mayoría de estudiantes solo tienen acceso a ordenadores portátiles personales que no están optimizados para cargas computacionales intensivas.

Esto fuerza a los estudiantes a utilizar modelos más simples que no alcanzan el estado del arte en IA. También deben conformarse con entrenar durante períodos muy prolongados, lo que retrasa la finalización de sus TFG. Algunos recurren a servidores en la nube como AWS, Azure y Google Cloud, pero los costos rápidamente se vuelven prohibitivos.

La escasez de recursos computacionales adecuados es, por tanto, un obstáculo importante para construir proyectos avanzados de IA en un TFG.

Riesgos de sobre-ingeniería y falta de utilidad práctica en proyectos de IA para TFG

Muchos estudiantes se emocionan tanto con la IA que construyen sistemas muy complejos para impresionar en sus TFG. Desafortunadamente, esta sobre-ingeniería conlleva crear productos frágiles y propensos a errores que son difíciles de mantener en el tiempo.

Además, al enfocarse demasiado en la tecnología de IA, los estudiantes pueden perder de vista las necesidades reales de usuarios que sus sistemas intentan resolver. Esto resulta en proyectos que utilizan IA de forma artificial sin aportar un valor práctico real.

Por ejemplo, agregar un chatbot con procesamiento de lenguaje natural a una aplicación web cuando simples menús hubieran sido más útiles. Esta falta de utilidad práctica es un problema frecuente en TFG de IA.

Conclusión: La IA conlleva beneficios pero también riesgos reales en proyectos de TFG de IA

En resumen, mientras la IA ofrece grandes promesas para resolver problemas del mundo real, también conlleva peligros muy reales que los estudiantes deben sopesar cuidadosamente antes de construir proyectos de TFG. Entre estos se incluyen problemas de ética de datos, vulnerabilidades de seguridad, falta de recursos computacionales, sobre-ingeniería, y falta de utilidad práctica para usuarios.

Los estudiantes que deseen crear aplicaciones de IA para sus TFG deben educarse sobre estas limitaciones e implementar salvaguardas para mitigar los riesgos desde las primeras etapas de sus proyectos. De lo contrario, podrían terminar creando sistemas poco éticos, inseguros, costosos de operar o simplemente inútiles. Un enfoque prudente y responsable hacia la IA puede ayudar a maximizar sus beneficios para la sociedad mientras se gestionan sus peligros inherentes.

5/5 - (1 voto)

Subir