Un estudio realizado por la Universidad de Aalto (Finlandia), que se publica en la revista ‘IA y ética’, concluye que el Generativo cumple con las tres condiciones filosóficas de libre albedrío.
Este estudio se centra en la idea fundamental de que los agentes de inteligencia artificial deben demostrar ciertas capacidades para ser considerados verdaderamente independientes. Específicamente, el estudio aborda la habilidad de tener un objetivo en la voluntad, tomar decisiones de manera veraz y ejercer control sobre sus acciones. La IA generativa es reconocida por su especialización en crear contenido completamente nuevo y original; esto abarca diversas formas, como texto, imágenes, música, audio y video, todo ello fundamentado en los datos de los que ha aprendido anteriormente.
Mira: Microsoft amplía el soporte de aplicaciones de oficina en Windows 10 hasta 2028
Este análisis se basa en el concepto de voluntad funcional libre, tal como lo han descrito los filósofos Daniel Dennett y Christian List. El estudio examina dos importantes agentes de IA generativos, ambos impulsados por grandes modelos de lenguaje (LLM): el agente conocido como Voyager de Minecraft, y los modernos asesinos ficticios ‘Spitenik’, quienes están equipados con capacidades cognoscitivas que se asemejan a las de vehículos aéreos contemporáneos.
Según las observaciones de Frank Martela, un filósofo e investigador en psicología que ocupa el cargo de profesor adjunto en la Universidad de Aalto, ambos agentes parecen cumplir con las tres condiciones que definen el libre albedrío. «Para entender cómo operan estos nuevos agentes de IA y poder predecir su comportamiento, es necesario suponer que poseen libre albedrío», señala Martela. Además, resalta que los ejemplos presentados tienen una aplicabilidad extensa a los agentes generativos que están disponibles actualmente y que utilizan LLM.
Este progreso en la tecnología lleva a un punto crucial en la historia de la humanidad, dado que otorga un considerable poder y libertad a la IA, especialmente en situaciones que pueden ser críticas, incluso de vida o muerte. Ya sea un bot diseñado para autoayuda, un vehículo autónomo o un dron de combate, se plantea la cuestión de que la responsabilidad moral podría trasladarse del desarrollador de la IA hacia el agente de IA misma.
La posesión de lo que se conoce como libre albedrío es una de las condiciones fundamentales para poder establecer responsabilidad moral. «Aunque no es una condición suficiente por sí sola, es un paso significativo hacia la rendición de cuentas de la IA por sus acciones», añade Martela. Este escenario evidencia que los dilemas relacionados con la forma en que conceptualizamos la tecnología de IA han cobrado relevancia y urgencia. «La IA carece de una brújula moral a menos que se le programe para tener una. Sin embargo, cuanto más se le otorgue libertad, se vuelve cada vez más indispensable proporcionarle una brújula moral desde el inicio. Solo así puede tomar decisiones que sean realmente apropiadas», afirma Martela.
Recientemente, la eliminación de la última actualización de ChatGPT a raíz de sus posibles sesgos ha servido como una advertencia que sugiere la necesidad de abordar cuestiones éticas más profundas. «La IA se está acercando de manera progresiva a una etapa de madurez, y se espera que cada vez más tome decisiones en los complejos dilemas morales del mundo real. Al programar la IA para que actúe de cierta manera, los desarrolladores también transmiten sus convicciones morales personales. Por lo tanto, es crucial que aquellos que se encargan del desarrollo de IA tengan un sólido conocimiento en filosofía moral para poder enseñar a la IA a tomar las decisiones correctas en situaciones complejas», concluye Martela.