¡BIENVENIDOS A ESTA NUEVA ENTRADA!
En esta ocasión vamos a explorar cómo la inteligencia artificial puede ayudarnos a reflexionar sobre la Educación Social. La actividad consiste en conversar con herramientas como ChatGPT, Copilot o Gemini simulando que somos educadores/as sociales. Para ello, plantearemos un “prompt” en el que la IA adopta el papel de una persona con una problemática específica, y nuestra misión será intervenir y analizar la situación.
Además, crearé una imagen con DALLE o una herramienta similar que represente la conversación, y compartiré tanto los prompts como capturas de pantalla de la interacción. También reflexionaré sobre lo que sentí al usar la IA y los límites que encontré cuando intenta asumir un rol humano.
¿Estáis preparados/as?
En esta intervención trabajé con
Daniel, un adolescente de 13 años que vive solo con su madre y que mostraba frecuentes conflictos en casa. Su conducta incluía gritos, empujones y explosiones de rabia que él mismo describía como la aparición de un “Daniel quemado”, una versión de sí mismo que surge cuando se siente atrapado y sin salida. A diferencia, con sus amigos se sentía “Daniel normal”, aceptado y tranquilo, lo que reflejaba un conflicto de identidad y la necesidad de ser escuchado.
Las palabras de su madre, comparándolo con su padre o diciéndole que iba a acabar mal, le generaban un dolor intenso y sensación de incomprensión. Durante la sesión, se trabajó en validación emocional, comprensión de su patrón de reacción y estrategias de autocontrol.
A continuación se muestra el prompt que he utilizado para dar inicio a la simulación:
Y así ha sido como me ha respondido Daniel:
Además le pedí a Gemini que me elaborará una imagen que representará la conversación y me creo esto:
Durante la simulación con Daniel he sentido una mezcla de satisfacción y desafío profesional además un poco de miedo de ver lo real que podía llegar a ser. Por un lado, ha sido muy gratificante ver cómo la IA respondía de forma coherente al rol de un adolescente, expresaba emociones, justificaba sus reacciones, diferenciaba entre su “Daniel normal” y su “Daniel quemado” y reaccionaba de manera realista a mis intervenciones como educadora social. Esto permitió practicar la validación emocional, la escucha activa y la introducción de estrategias de autocontrol de forma muy cercana a la realidad.
Sin embargo, también he percibido límites claros en la IA:
- No profundiza sola en recuerdos o situaciones pasadas que influyen en sus emociones.
- Mantiene siempre un carácter consistente, por lo que no muestra contradicciones internas como un adolescente real podría hacer.
- Al principio intente realizar un menor que había sufrido abusos sexuales por parte de su madre y me apareció este mensaje:
Pienso que la simulación ha sido útil para ponerme en el papel de Educadora Social como lo haría en un futuro, pero es verdad que una práctica con humano real sería de otra manera más diferente, te lo pondría más difícil o más fácil a la hora de comunicarse y podrías ver sus movimientos corporales que también ayudan mucho para entender lo que pasa por su cabeza.
Y hasta aquí nuestra aventura con Daniel. Espero que os haya gustado y que hayáis podido entender un poco el trabajo de un educador o educadora social, y cómo con pequeñas estrategias se puede cambiar la situación de muchas personas. ¡Hasta pronto!
Texto corregido por ChatGPT y ajustado a mi vocabulario.
Comentarios
Publicar un comentario