
105. Cómo la IA está apagando tu capacidad de pensar con Richard Benjamins 365m1o
Descripción de 105. Cómo la IA está apagando tu capacidad de pensar con Richard Benjamins 4c2710
“Con la IA generativa, estamos perdiendo algo invisible pero fundamental: nuestra capacidad de pensar.” – Richard Benjamins Vivimos obsesionados con la productividad, la inmediatez y la automatización. Pero… ¿qué pasa con nuestra autonomía? ¿Nuestra capacidad de elegir, reflexionar, equivocarnos? Richard Benjamins ha liderado la transformación digital de grandes empresas y hoy impulsa una de las iniciativas más potentes de Europa en ética y gobernanza de la IA: OdiseIA. En este episodio hablamos de lo que casi nadie quiere enfrentar: Cómo la IA generativa está erosionando el pensamiento crítico. Por qué “todo más fácil” puede llevarnos a una infantilización mental. Cómo Europa puede liderar sin imitar a China ni a Silicon Valley. Qué puede hacer una empresa para usar la ética como ventaja competitiva (y no como lastre regulatorio). Qué educación necesita una generación que nacerá con un copiloto de IA activado por defecto. Un episodio sereno, profundo y brutalmente necesario. Esto son los mejores momento: [00:00] La frase que lo cambia todo: “En 15 años necesitaremos gimnasios mentales” [01:20] ¿Estamos dejando de pensar por nosotros mismos? [03:10] Cómo la IA está generando dependencia invisible [06:00] El problema no es la IA, es la forma en que la usamos [08:40] La infantilización tecnológica: todo más fácil, menos autonomía [11:20] ¿Puede la IA quitarte poder sin que te des cuenta? [13:45] Cómo afecta la IA al pensamiento crítico y a las decisiones individuales [16:30] Qué debería cambiar en el sistema educativo (ya) [19:00] Europa y el liderazgo basado en valores humanos [21:30] El error de pensar que regulación es freno [24:10] ¿Pueden las empresas usar la ética como ventaja competitiva? [27:00] Casos concretos: cómo Telefónica aplicó IA con responsabilidad [30:20] La trampa de los sesgos en modelos generativos [33:00] ¿Y si Europa apostara por una IA diferente? [36:30] El reto de explicar ética en una sala de dirección [39:10] La relación entre ética, rentabilidad y reputación [42:40] Automatización, empleo y el futuro del trabajo [46:10] ¿Quién se beneficia hoy de la IA… y quién queda fuera? [49:30] Qué deberíamos estar haciendo HOY como ciudadanos y líderes [52:00] Cómo evitar una sociedad tecnológicamente avanzada pero mentalmente frágil [55:30] La IA como copiloto: ¿ayuda o atrofia? [59:00] Qué tipo de habilidades deberían importar en 2035 [1:01:30] Por qué necesitamos una ética pública para los algoritmos [1:04:00] Qué errores se repiten al hablar de IA en política y medios [1:07:20] ¿Qué podemos hacer desde el mundo educativo y empresarial? [1:10:40] El equilibrio entre innovación y responsabilidad [1:14:00] Los cuatro aprendizajes clave de Richard [1:18:00] Su definición personal de éxito y su mayor preocupación ….. Dale al play y disfruta de la escucha Linkedin : https://www.linkedin.com/in/richard-benjamins/ ✅ Este podcast está patrocinado por Growit (https://growitschool.com/) 💬 Host: Jean Noel Saunier (https://www.linkedin.com/in/jeannoel-saunier-growth/) 6p2z6w
Este contenido se genera a partir de la locución del audio por lo que puede contener errores.
Si seguimos en el camino en el que estamos, en 15 años, tenemos que ir al gimnasio mental para mantener ejercer nuestro cerebro, si no, nos atontamos porque nos da pereza.
Porque todo lo que podemos hacer fácil, lo hacemos fácil.
Dame un ejemplo para mi hija de 3 años.
La realidad es que nunca hemos hablado específicamente del tema de la ética en la IA.
Estamos buscando con el equipo y hemos encontrado el crack en España, y eres tú, así que bienvenido.
Muy bien, muchas gracias, es un placer estar aquí contigo y de hecho somos dos extranjeros hablando en español y que formamos parte de los 100 millones de hispanohablantes que no son nativos.
Sí, es verdad, es verdad.
Pues espero que esta conversación sea agradable para los nativos también y vamos a intentar hablar lo mejor que podemos.
Casi los dos tenemos muchos años en España, pero vamos a empezar.
Oye, Richard, si tuviera que explicar a mi hija de 13 años qué significa la ética en la IA, ¿qué le dirías tú? Yo le diría que la IA es una tecnología muy potente, pero no es 100%, es decir, comete errores.
Entonces, la ética en la IA consiste en valorar el impacto de los errores de la IA.
Eso es el pensamiento ético.
Si valoras el impacto cuando no funciona bien y decides, bueno, ese impacto es asumible, entonces lo lanzas, has hecho un pensamiento ético.
Si no lo haces, lo lanzas directamente sin pensar en posibles consecuencias, ¿vale? Si quieres, te doy un ejemplo.
Es lo que te va a decir, oye, dame un ejemplo para mi hija de 13 años.
De acuerdo.
Entonces, si yo quiero, por ejemplo, si soy una escuela, ¿de acuerdo? Y yo quiero predecir el abandono o la prestación de mis alumnos, ¿vale? Entonces yo puedo coger datos históricos sobre todos mis alumnos, hacer un modelo de inteligencia artificial, de machine learning, y ese modelo con alumnos que tengo hoy en día en la clase, pues cada alumno lo puedo predecir si van a dejar la escuela o no.
Ese algoritmo tendrá una precisión del 80, 90, 99 o lo que sea, ¿vale? Pero siempre hay un porcentaje que no funciona.
Entonces, el pensamiento ético consiste en, si soy un alumno que no va a abandonar, cuando yo predigo que va a abandonar, no lo pongo en una cajita.
Este alumno va a abandonar la escuela, pero no va a abandonar en la práctica, porque es un error.
Entonces, ¿cómo de grave es esto? Si es no tan grave, en este caso sí es grave, porque estigmatizas a un alumno y hablas con sus padres, oye, su hijo tal, pero entonces lo pones casi en off, self-fulfilling prophecy.
Y al revés, si no detectas a un alumno que va a abandonar, pues igual va a abandonar.
Estos son los errores que comete la inteligencia artificial.
Entonces, si como colegio decido, bueno, ese es asumible en mi caso, pues entonces por lo menos has hecho un pensamiento ético.
Obviamente, nunca puedes evitar los errores, pero lo importante de la ética en inteligencia artificial es que tengas una metodología, un proceso para sistemáticamente evaluar el impacto de la inteligencia artificial cuando comete errores.
Ok. Ahí estamos más hablando de la IA de predicción que la IA generativa, ¿no? Con la IA generativa, ¿qué otro ejemplo me podrías dar? ¿Cómo lo ves, el tema de la ética? Bueno, la verdad es que el pensamiento ético es exactamente igual, ¿no? Puede haber algunos matices distintos, pero por ejemplo, si yo uso la IA generativa para redactar un documento en un ámbito de salud, ¿no? O sea, yo tengo, yo creo que...
Comentarios de 105. Cómo la IA está apagando tu capacidad de pensar con Richard Benjamins 1w1y1z