Quantcast
Viewing latest article 6
Browse Latest Browse All 207

¿De verdad crees que, con la IA, «reforzar lo que nos hace humanos» es suficiente?

POST Nº 724

Escucho y leo que la solución ante el avance de la IA es «reforzar lo que nos hace humanos». Se lo he escuchado al bueno de Recuenco, y es algo con lo que es difícil estar en desacuerdo. Todos queremos ser más personitas y menos máquinas, pero revisemos con sinceridad el escenario que nos plantea el crecimiento exponencial de la IA para saber si esa es una solución realista. O si, como pienso yo, es una declaración de buenas intenciones para no estresarnos mientras procrastinamos y seguimos tejiendo nuestra propia trampa.  

Para mí la solución no pasa solo por desarrollar (“reforzar”) nuevas habilidades humanas, sino también por una contención de lo que pueden/deben hacer las máquinas.  Vamos a llegar a un momento —que no está tan lejano, como dicen—, en el que tendremos que empezar a hablar en serio de activar mecanismos de «discriminación positiva de lo humano». Suena disparatado, loco, pero volveré a esta idea más adelante.  

Lo primero, por aterrizar más la cita del título, vamos a preguntarnos lo siguiente: ¿Qué tipo de cosas o habilidades nos hace más humanos? Una manera de contestar esto, y me parece la más objetiva dado el contexto reduccionista en el que se plantea (muy determinado por la tecnología), es identificar aquellas cualidades que, al menos por ahora, son difíciles de replicar o capturar completamente por las máquinas. La mayoría de los expertos coinciden en que pueden ser las que listo a continuación (y serían estas las que «hay que reforzar», según la receta que nos han dado):

  1. Empatía y conexión emocional: La capacidad de entender y compartir las emociones de los demás, de construir vínculos sensibles a los matices emocionales en distintas situaciones.
  2. Creatividad: Generar cosas nuevas con un propósito y una emoción. Desde arte y escritura, a música, pasando por la resolución de problemas complejos.
  3. Pensamiento crítico y ético: Analizar el mundo, cuestionar, reflexionar y tomar decisiones basadas en valores éticos, entendiendo las consecuencias a largo plazo.
  4. Espiritualidad y sentido de propósito: La búsqueda de significado, ya sea a través de la religión, la filosofía o el autodescubrimiento. Esto incluye contemplar preguntas profundas sobre la vida, el universo y nuestra existencia.
  5. Sentido del humor: La capacidad de encontrar humor en situaciones complejas o absurdas, generar risas con un toque único y singular.
  6. Improvisación y adaptación: La flexibilidad para lidiar con lo inesperado de manera creativa, tomando decisiones rápidas.
  7. Colaboración social y comunitaria: Trabajar juntos/as para resolver retos comunes y mejorar la convivencia.
  8. Narración de historias: Compartir experiencias, valores y emociones a través de historias que conecten generaciones y transmitan significado.

De todo esto que he listado antes, ¿Qué crees que las máquinas o la IA no van a llegar a hacer igual o de manera similar a nosotros? Antes de contestar, por ganar en perspectiva, compara lo que la IA era capaz de hacer hace solo uno o dos años, y lo que hace ahora. Piensa, por ejemplo, si ChatGPT no parece hoy ser mucho más empático, emocional, colaborativo e incluso, hasta se ha apuntado al pensamiento crítico con más eficacia que muchas personas que yo conozco. Dije que «parece», vale, pero lo mismo da si ponemos esto en el contexto de una sociedad profundamente finalista, como en la que vivimos.

Las máquinas equipadas con IA nos comen el terreno a lo bestia. Podrán hacer todo esto sin sentir nada, pero sí simulando que sienten. Los propios humanos les estamos enseñando a hacerlo porque las programamos y entrenamos para que sean buenas en eso. El resultado va a ser muy similar o superior (lo estamos viendo con ChatGPT), aunque el modo de hacerlo no sea genuino ni humano. Pero, ¿qué importa cómo se hizo el puchero si sabe riquísimo? En todo eso, sin excepción, las máquinas (gracias a la IA) están reduciendo la brecha respecto de nosotros, los humanitos. En algunas de esas cualidades, el recorte llega a ser dramático. En otras, hay un potencial evidente de poder conseguirlo. Pronto, veremos algunas de esas habilidades superadas.

Sinceramente, no veo que seamos capaces de mejorar esas habilidades «que nos refuerzan como humanos» al ritmo en el que nos comen terreno las máquinas. Podemos mejorar en eso, por supuesto, y es bueno que se plantee como aspiración —yo me apunto también—, pero es ingenuo pensar que, al ritmo que va la carrera frenética por una IA cada vez más poderosa, por muy rápido que aprendamos (es imposible) vayamos a poder salvar a una mayoría de esta ola acelerada de automatización.

Y fíjate que he dicho «la mayoría» porque es lo que realmente me interesa. La clave, para comprender el lío en el que nos estamos metiendo, es dejar de comparar lo que hacen las máquinas con lo que hacen los humanos más listos-listísimos de nuestra especie. Esa es una falacia, tiene trampa, y es lo que más suele hacerse cuando se abusa de frasecitas de este tipo: «la IA nunca reemplazará el conocimiento humano en su totalidad» o «siempre serán necesario humanos para resolver (algunos) retos complejos». Menuda tontería más obvia para esconder los peligros. Fíjate en las matizaciones de «en su totalidad» o «algunos», porque es así como discurre la semántica auto engañosa del tecno-optimista, o del que vende IA interesadamente.

Claro que nadie niega que habrá un nivel de tareas y retos al que no llegará  la IA, pero no es lo mismo que esos problemas/retos humanos sean el 50% a que se reduzcan al 5%. En el primer escenario, todavía podemos convivir en armonía con las máquinas. En el segundo, ya podemos darnos prácticamente por sustituidos. Habrá solo una élite que pueda seguir disfrutando a tope de lo que la “refuerza como humano” porque sea más inteligente que la superinteligencia. Comportarse «como humanos», profesionalmente hablando, será un lujo. Antonio Ortiz sugiere algo parecido aunque, en contraste con mi lectura, lo plantea en positivo: «aquello por lo que estaremos a dispuestos a pagar más». En ese caso podremos decir todavía que el humano supera a la máquina, dado que existe ese 5% que aguanta el tipo, pero… ¿y qué hacemos con el 95% restante?, esa mayoría que es la que a mí verdaderamente me preocupa.

Sigamos. Una persona que tiene altas capacidades para, por ejemplo, resolver problemas complejos (algo que exige mucha formación previa) sentirá que si le automatizan el 80% de las heurísticas más sencillas para centrarse en el 20% más retador y molón, es un avance estupendo. Externaliza lo que ya sabe hacer, y se centra en lo que no. Pero, ¿y qué hacemos con esa mayoría que disfrutaba pensando y buscando soluciones para “problemitas” corrientes? ¿Les vamos a exigir ahora que se conviertan en expertos/as en CPS para que se centren en ese 20% de retos que todavía «siguen siendo humanos» (y por los que, según se insinúa, todo el mundo se va a pelear a collejazos)? Seamos sinceros, eso es inviable. Lo que va a ocurrir es que esa mayoría que se quedará atrás terminará usando los ChatGPT de turno para encontrar las respuestas que antes trataba de encontrar, mal o bien, por su cuenta. Eso también es «indefensión aprendida»: “¿para que voy a pensar yo, si —una y otra vez— el cacharro me da la respuesta correcta?”.

A menos terreno quede para hacer «cosas que nos hace humanos», menos posibilidades habrá de trabajar en eso, y de vivir de eso. Pero esto es cierto solo si seguimos compitiendo con las máquinas sin nada que proteja y ponga en valor lo humano. Por eso dije al principio que pronto tendremos que empezar a hablar de «discriminación positiva de lo humano». Sí, suena raro pero es así porque, insisto, este no es un reto tecnológico sino humanista, de contrato social y de regulación. Y esa es una decisión que está por encima de tanto determinismo tecnológico (interesado) que nos está volviendo gilipollas. También del interés propio de las empresas y sus tecno-élites.

Pondré un ejemplo bien sencillo, para que se me entienda. No tengo la menor duda de que vamos a un escenario en el que las máquinas terminarán haciendo un mejor #diseño que los humanos. Que serán mejor diseñadoras que las personas. Tal vez, de nuevo, un 2-5% de los/as profesionales que hacen diseño consigan todavía superarles. ¿Cuál es la solución a esto? Algunos dicen que si eso ocurre, por lógicas de mercado, significaría que ya no haría falta la profesión de diseñadores/as, y entonces aparecerá otro oficio al que podrán reciclarse. Ese margen se irá reduciendo, y reconvertirse tan rápido será cada vez más difícil. Y así seguiremos huyendo de un sitio a otro, en ciclos cada vez más cortos de reconversión ansiosa: «Vienen las máquinas, a ver qué nos queda que sea de humanos», nos proponen. Y este escenario no es nada descabellado cuando la idea de «superinteligencia» no solo se convierte en una meta (absurda y suicida) sino que se dan pasos muy serios en esa dirección. Las voces (autorizadas) que avisan de esa posibilidad se han multiplicado. Y te recuerdo lo que eso significa, toma nota: se acabó la supremacía del ser humano.  

Entonces, ¿cuál puede ser la solución? Yo creo que será una combinación de varias cosas. No creo en una única solución. Pero sí que tengo claro que vamos a tener que, por «discriminación positiva de lo humano», poner en valor de alguna manera lo «human-made». Para eso, lo primero, tendrá que haber una normativa severa que obligue a declarar lo que se ha hecho con IA. Después, incentivos (de mercado y regulatorios) que premien lo «hecho por humanos». Y en algunas tareas o trabajos, incluso, prohibir el uso de la IA. Sé que esto de prohibir suena fatal, pero en la sociedad de hoy ya tenemos muchas cosas prohibidas que la mayoría acepta por autopreservación. Pues mi teoría es que la IA debería obligarnos a tomar medidas de ese tipo, también por autopreservación. No oculto que llegar a una regulación saludable de todo esto es un reto inmenso, nada fácil, pero tampoco lo era conseguir el milagro de la IA, y ahí lo tenemos.   

Por otra parte (este es ya otro temazo que no cabe en este post), me cuestiono si hacer cosas que tienen algún grado de repetitivas no merece también que sea «de humanos». Cuando escucho la cantinela de que lo repetitivo es siempre tedioso y detestable, solo pienso en lo hipócritas que somos. Hay también mucho elitismo soterrado en esa idea, además de una evidente carencia de autoconocimiento. A ver, no podemos estar todo el tiempo haciendo cosas nuevas y diferentes. Al menos las personitas corrientes, necesitamos combinar tareas de todo tipo, para descansar el coco. En la práctica de rutinas y rituales (incluidos los profesionales) hay también mucha belleza y emoción humanas. ¿Esa parte la vamos a delegar también?

Por eso siempre hago esta pregunta, una y otra vez: Que una tarea o trabajo sea automatizable, ¿es razón suficiente para que sea sustituible por una máquina? Responder con responsabilidad a esta cuestión es capital. Es, como dicen en mi tierra, «el pollo del arroz con pollo», la esencia de una gestión humanista del futuro de la IA. Y para responderla bien, por favor, no lo hagas en piloto automático. Piensa correctamente, empieza a practicar eso de reforzar lo que te hace humano/a Image may be NSFW.
Clik here to view.
🙂
 

NOTA: La imagen del post es del álbum de Google DeepMind en Pexels.com. Si te ha gustado el post, puedes suscribirte para recibir en tu buzón las siguientes entradas de este blog. Para eso solo tienes que introducir tu dirección de correo electrónico en el recuadro de «suscríbete a este blog” que aparece en la homepage. También puedes seguirme en la red social Bluesky o visitar mi otro blog: Blog de Inteligencia Colectiva. Asimismo, aquí tienes más información sobre mi último libro.

La entrada ¿De verdad crees que, con la IA, «reforzar lo que nos hace humanos» es suficiente? se publicó primero en Amalio Rey | Blog de innovación con una mirada humanista.

Image may be NSFW.
Clik here to view.

Viewing latest article 6
Browse Latest Browse All 207

Trending Articles