La Inteligencia Artificial (IA) no cambiará nuestra conducta: ya lo hizo.
No será un robot inteligente quien domine nuestras vida; hoy mismo los mecanismos de la conducta humana son explotados por la IA para influir nuestra conducta y te voy a contar cómo.
Hace unos años vi un capítulo de la serie Black Mirror llamado MetalHead. En la misma, un robot inteligente con forma de perro cazaba a unos pocos humanos sobrevivientes en un mundo post apocalíptico. ¿Es una tragedia de este tipo la que podemos esperar cuando personas como Elon Musk advierten sobre los riesgos de la Inteligencia Artificial (IA) para la humanidad?
Hoy te voy a contar porque sería un grave error pensar que sólo de esa forma las máquinas inteligentes son un riesgo para la raza humana. Los efectos de la IA son mucho más sutiles e influyen nuestra conducta todos los días.
La teoría del conductismo con 100 años de existencia, provee un marco teórico para explicar cómo la IA a través de internet o las redes sociales influyen en nuestra conducta.
¿Qué es el condicionamiento operante?
El condicionamiento operante sostiene que es más probable que un individuo repita una conducta cuando esta va seguida de una consecuencia agradable. Por el contrario, una conducta es evitada cuando su consecuencia es desagradable. Burrhus Frederic Skinner o B.F. Skinner es considerado el padre de la teoría del condicionamiento operante.
B.F. Skinner realizó sus experimentos en lo que se conoce como la caja de Skinner. La caja de Skinner era ni más ni menos que una caja de tamaño mediano que contenía en su interior una palanca que al accionarse daba lugar a una recompensa o un castigo a quien la presionaba. Dentro de la caja, Skinner colocaba un roedor hambriento. Cuando por primera vez el roedor accionaba la palanca (por supuesto, la primera vez que lo hacía era de manera accidental), se le recompensaba con comida. Rápidamente, el roedor aprendía que la conducta de accionar la palanca de la caja tenía una consecuencia agradable: recibir comida. Este mecanismo de aprendizaje se conoce como refuerzo positivo. La conducta aprendida se mantenía mientras se entregaba la recompensa y se extinguía cuando después de algunas veces de accionar la palanca no se entregaba más comida.

Ahora se pone interesante: Skinner encontró que había una circunstancia en la cual se hacía muy difícil extinguir la conducta de accionar la palanca de la caja. Esta circunstancia era cuando la recompensa se presentaba de manera variable: a veces sí, a veces no. Esto se conoce como refuerzo positivo intermitente. El refuerzo positivo intermitente representa uno de los mecanismos más fuertes para sostener una conducta aprendida en el tiempo. Testimonio de esto son las apuestas: “alguien va a ganar, así que por las dudas juego, no vaya a ser cosa que me pierda el premio.”
¿Qué tiene que ver esto con los efectos de la IA?
Mucho más de lo que creemos. Estos mecanismos de la conducta son muy conocidos por las empresas tecnológicas. Las redes sociales utilizan algoritmos de IA para personalizar los feeds de noticias, mostrar anuncios dirigidos, shorts de videos, sugerir amigos, etc, etc. Estos elementos constituyen, 100 años después, la recompensa variable de la caja de Skinner.
A esto se agrega el concepto de Fear of Missing Out (FOMO) o miedo a perderse algo. El FOMO es una sensación de angustia y ansiedad que experimenta una persona al no poder ver o participar de las actividades sociales de su entorno. El FOMO es una sensación desagradable que funciona como refuerzo negativo de la conducta.
La persona siente angustia al pensar que se está perdiendo algo que está ocurriendo en su red amigos. La angustia se alivia entrando y viendo lo que podría estar perdiéndose. Esto constituye su recompensa, alivia su angustia y cierra el proceso del condicionamiento operante.
La IA necesita datos para entrenarse, funcionar y cumplir alguna función. Sin datos no hay IA. Cada vez que hacemos un click on line o hacemos scroll en un feed de shorts o noticias, le estamos enseñando a la IA sobre nuestros gustos y preferencias. Este tiempo y atención del usuario permiten a los algoritmos de la IA ser mejores la siguiente vez que sean utilizados. Cada click, cada búsqueda en Google, cada segundo de scroll y de uso, entrena a la IA para ofrecer mejores recompensas. No sólo para el usuario en particular, si no también para otros usuarios dado que el entrenamiento se generaliza.
Me detengo en el caso de Tik Tok. Al igual que las otras redes sociales, el algoritmo de esta red social se centra en el uso de recompensas variables. Proporciona una transmisión aleatoria de contenido que crea una sensación de imprevisibilidad y emoción. Esta imprevisibilidad es lo que hace que los usuarios vuelvan por más, ya que nunca saben qué podrían ver a continuación (refuerzo intermitente). El algoritmo de Tik Tok es particularmente adictivo y llamativamente su mayor uso ocurre en personas jóvenes.
Estas características de las redes sociales no surgieron de casualidad. Los mecanismos conductuales que explican su adicción son aprovechados al máximo por sus creadores, que además miden de manera continua los efectos de los cambios introducidos en las plataformas proveyendo feedback en tiempo real sobre la conducta del usuario. Es muy sencillo establecer como objetivo a un algoritmo de IA obtener el máximo tiempo de uso posible. El algoritmo no hará más que itinerar su interacción con el usuario para maximizar el tiempo de uso y minimizar lo que en IA se llama pérdida. En términos conductuales la pérdida del algoritmo es su castigo.
No me he detenido a hablar sobre la obsesión por obtener likes o seguidores. Cualquier lector suspicaz entenderá cómo la misma teoría conductista puede explicar este fenómeno mediante el refuerzo positivo intermitente.
¿Podemos hacer algo?
Afortunadamente, los seres humanos tenemos la capacidad de utilizar nuestro intelecto y buscar una forma de liberarnos de estos mecanismos conductuales. No se trata de acciones infalibles, pero si pueden colaborar a romper el circuito de la recompensa variable. Te dejo algunos tips:
1- Establecer límites de tiempo de uso: decidir cuánto tiempo se va a dedicar a esta actividad y sostenerlo.
2- Eliminar aplicaciones del celular o al menos no tener acceso directo desde la pantalla: cualquier medida que dificulte el acceso a una aplicación potencialmente adictiva, disminuirá su uso.
3- Desactivar las notificaciones: además de intrusivas, las notificaciones nos hacen perder el foco. Desactivarlas constituye un mecanismo instantáneo para minimizar nuestra interacción con los algoritmos de la IA.
4- Identificar los momentos en que de manera automática nos ponemos a interactuar con los algortimos. Es muy sencillo identificar qué estamos haciendo antes de quedar absorbidos por la IA: un momento de aburrimiento esperando algo, en el colectivo, ansiedad durante el almuerzo o antes de ir a dormir. Siempre hay un disparador que se suele repetir. Una vez identificados estos momentos, se debe tratar de reemplazar el chequear el celular por otra actividad que podría ser leer un libro, salir a caminar o hacer actividad física.
En resumen, nadie puede aventurar acerca de la existencia futura de un robot inteligente que controle nuestras vidas. De lo que no hay ninguna duda es que la IA ejerce una influencia significativa en nuestras vidas mediante la explotación de mecanismos conductuales básicos. Cuál será el resultado de semejante experimento natural al que nosotros mismos nos estamos sometiendo me resulta incierto. Nadie puede descartar que nos encaminemos a una sociedad de menor intelecto, menos creatividad, con mayores problemas de adicción, psiquiátricos y psicofármacos de venta libre. Esto constituye el mayor riesgo y no la creación del robot inteligente con forma de perro de la ficción futurista.
Brillante exposición y mensaje. Me vino a la mente nuevamente el docu de Netflix "El dilema de las redes sociales". Creo que ed un duelo constante contra el propio subconsciente.