Follow along with the video below to see how to install our site as a web app on your home screen.
Nota: This feature may not be available in some browsers.

Podría rebatirse absolutamente todo de lo que dice el tal José Ignacio, que entiendo que lanza el titular para generar debate y provocar.Bonito anuncio, me gustó mucho cuando lo vi, y tampoco sabía que estaba hecho con IA. Para los que se consuelan pensando que al menos la idea fue de un humano, traigo malas noticias: esto tiene los días contados. Parafraseando a la niña de Poltergeist, ya están aquíii...
![]()
José Ignacio Latorre, experto en computación cuántica: "La IA tiene una ventaja evolutiva respecto a los humanos, su soporte no es perecedero"
Sam Altman, el CEO de OpenAI, ha admitido que sus hijos nunca serán más inteligentes que una IA. «Eso nunca sucederá», ha llegado a decir el responsable de la...www.elmundo.es
No sé si se va a poder leer el link que he puesto. Por si acaso, buscad el nombre de "José Ignacio Latorre, experto en computación cuántica".
EDITO: no había leído la demoledora crítica de @jorgesdb 😅 . Añado que la batalla del Abismo de Helm en El Señor de los Anillos también estaba hecha con IA, y parece que lo hicieron tan bien (o mal) que había personajes que huían de la batalla cuando no debían hacerlo![]()
Bonito anuncio, me gustó mucho cuando lo vi, y tampoco sabía que estaba hecho con IA. Para los que se consuelan pensando que al menos la idea fue de un humano, traigo malas noticias: esto tiene los días contados. Parafraseando a la niña de Poltergeist, ya están aquíii...
![]()
José Ignacio Latorre, experto en computación cuántica: "La IA tiene una ventaja evolutiva respecto a los humanos, su soporte no es perecedero"
Sam Altman, el CEO de OpenAI, ha admitido que sus hijos nunca serán más inteligentes que una IA. «Eso nunca sucederá», ha llegado a decir el responsable de la...www.elmundo.es
No sé si se va a poder leer el link que he puesto. Por si acaso, buscad el nombre de "José Ignacio Latorre, experto en computación cuántica".
EDITO: no había leído la demoledora crítica de @jorgesdb 😅 . Añado que la batalla del Abismo de Helm en El Señor de los Anillos también estaba hecha con IA, y parece que lo hicieron tan bien (o mal) que había personajes que huían de la batalla cuando no debían hacerlo![]()
Una preciosidad!!! 👏👏👏
Bonito anuncio, me gustó mucho cuando lo vi, y tampoco sabía que estaba hecho con IA. Para los que se consuelan pensando que al menos la idea fue de un humano, traigo malas noticias: esto tiene los días contados. Parafraseando a la niña de Poltergeist, ya están aquíii...
![]()
José Ignacio Latorre, experto en computación cuántica: "La IA tiene una ventaja evolutiva respecto a los humanos, su soporte no es perecedero"
Sam Altman, el CEO de OpenAI, ha admitido que sus hijos nunca serán más inteligentes que una IA. «Eso nunca sucederá», ha llegado a decir el responsable de la...www.elmundo.es
No sé si se va a poder leer el link que he puesto. Por si acaso, buscad el nombre de "José Ignacio Latorre, experto en computación cuántica".
EDITO: no había leído la demoledora crítica de @jorgesdb 😅 . Añado que la batalla del Abismo de Helm en El Señor de los Anillos también estaba hecha con IA, y parece que lo hicieron tan bien (o mal) que había personajes que huían de la batalla cuando no debían hacerlo![]()
Podría rebatirse absolutamente todo de lo que dice el tal José Ignacio, que entiendo que lanza el titular para generar debate y provocar.
Pero es que el titular, ya es totalmente rebatible: ¿La ventaja de la IA frente al humano es su soporte no perecedero? Desde el momento que la IA necesita una infraestructura, sistemas complejos, y una cantidad de energía brutal para existir, mientras que el humano, que biológicamente somos frágiles, resulta que tenemos (igual yo no, pero como especie sí, venga, me incluyo) una capacidad de resiliencia brutal con poquísimos recursos.
A mí me agotan más las afirmaciones categóricas sobre lo desconocido y futuros inciertos de algunos gurús, alarmistas, columnistas de LinkedIn, etc... que las creaciones de la propia IA.
Es que cuando te pones y arrancas la moto...el tocho es inevitable jajaja.Maravilloso, has conseguido decir lo que yo estaba pensando sin necesidad de usar 25 párrafos... tengo que trabajar mi capacidad de síntesis 😂
Lo que está claro es que el ser humano tiende a quedarse “embobado” ante los avances tecnológicos y que es poco dado a prestar atención a las posibles consecuencias de su implantación sin ningún tipo de control. Esto nos cambia como personas y como sociedad y, sin discutir si es mejor o peor, deberíamos ya saber qué es lo que queremos de la IA y porqué y, sobre todo, donde queremos quedarnos respecto a ella. Más que nada para no ir lamentando después como ocurre siempre.
Yo recomiendo a un escritor y filósofo francés llamado Eric Sadin, experto en interrelación tecnología-sociedad, que si bien puede parecer catastrofista, pone de relieve lo que yo creo que son consideraciones importantes de la influencia de la IA sobre lo que es inherente al ser humano como el lenguaje y la capacidad de decisión así como con principios básicos como sociabilidad, la dignidad, la integridad humana, la libertad, la expresión de nuestras facultades creativas.
Hace poco estuve otra vez en una de sus charlas y estoy de acuerdo en lo que decía sobre que la IA se basa en la correlación y en el lenguaje de la lógica, y que el lenguaje del ser humano es todo lo contrario, se basa en asociación de ideas. Y por tanto cada pensamiento es único porque cada persona recorre el camino de un manera diferente. Y esto es lo que viene a matar la IA.
Es que cuando te pones y arrancas la moto...el tocho es inevitable jajaja.
El mayor problema de hoy en día lo veo precisamente en algo que señalas en el "tocho", la simplificación, deliberadamente tendenciosa en multitud de ocasiones, que se hace de temas extremadamente complejos para "empaquetarlos" y escupirlos/vomitarlos al gran público.
Hoy el sistema premia esa simplificación y penaliza el matiz, la duda. Las certezas, sean cuales sean y vengan de quien vengan, hoy parten con ventaja...eso es lo que más me asusta a mí.
Si profundizas en el neuromarketing, veras que esos detalles, en los que tienes razon, son irrelevantes en el mensaje esencial que capta el consumidor y que quiere transmitir la publicidad. El 95% aproximadamente, del receptor del anuncio, no lo verá, y del 5% restante, solo unos pocos iran analizando el vídeo para ver los típicos fallos de la IA.Si fuese un vídeo hecho por un influencer para hacer el tonto en su canal de TikTok os diría que muy bonito.
Si pretende ser publicidad de verdad de un producto de verdad (no me suena esa marca), es muy cutre, he visto prácticas mejores.
Se nota que está hecho en una tarde por una sola persona que no maneja el lenguaje cinematográfico (que se aplica también a TV y publicidad).
Estas son las cosas más llamativas sin pararme a los detalles:
1.- El chaval del principio se echa la mano a cabeza cuando le hacen la zancadilla.
2.- Los bullies sufren de "disneycificación", es decir, como en las películas animadas, todos los personajes tienen un registro limitado de gestos.
Ver el archivos adjunto 3479726
3.- El reloj cambia cuando está en primer plano, sospecho que intentando mostrar la gama, pero lo hace tan rápido que lo único que crea es un efecto extraño.
Ver el archivos adjunto 3479727
4.- Los textos están en "klingon", no hay un solo texto legible.
Ver el archivos adjunto 3479725
Ver el archivos adjunto 3479728
5.- Cuando el anciano va caminando por el avión, los otros usuarios están sentados de espaldas a la cámara, entonces se gira a la izquierda y la mujer está sentada mirando en sentido contrario al resto del avión.
6.- En la escena final pasa algo parecido, no mantiene el raccord y cuando el chaval ha pasado ya por delante de la anciana y se gira hacia atrás para mirarla, debería verla desde el ángulo contrario al que la vio antes de llegar a su altura.
Y fallos de raccord hay más, demasiados para un vídeo tan corto.
A ver, que ni skynet ni leches, la IA lleva usándose en cine durante décadas. La batalla de la película Troya de 2004 está hecha en gran parte con IA.
Hay muchas escenas de series y películas actuales hechas con IA, La Batalla de los Bastardos de Juego de Tronos, por ejemplo, que es de hace 10 años, antes de que mucha gente hubiese escuchado la palabra IA.
La diferencia es que ahora hay herramientas que permiten hacer vídeos a mi perro, pero es una herramienta, nada más.
Habrá empresas sin medios que recurrirán a prácticas de fin de estudios como esta (como hace años decíamos lo de "mi hijo manera powerpoint, él nos hará la presentación) y las seguirá habiendo las que contraten a equipos de producción que se apoyarán en esta herramienta.
Aquí se nota la falta de guionista, editor, productor y un director que de el ok para que no sucedan tonterías como las que he relatado antes.
Edito:
En TV hay bastantes anuncios con IA, el de Trivago que usan IA para que el mismo actor mueva la boca hablando en diferentes idiomas (no les contéis los dientes) pero que se nota la diferencia de producción.
Otros más cutres como una de una empresa de aviones o de venta de vuelos que estaban todas las personas hechas con IA y daban auténtica grima...
Creo que ya la IA sí puede usarse para entrenar a otras IA. Ya se está trabajando en ello con modelos LLM avanzados. Puede corregir fallos y sesgos, pero también potenciarlos. Y apenas empieza.Justo anoche estuve en una videoconferencia con varios de mis amigos hablando de esta entrevista. En la charla había politólogos, historiadores, informáticos, abogados... un grupo bastante heterogeneo.
Voy a intentar no hacer un tocho de esto.
El primer problema que vimos es que se trata de una entrevista-promoción de un nuevo libro, no se busca cuestionar al entrevistado, es para darle visibilidad.
Juan Ignacio Latorre es una de las eminencias que tenemos en este país en temas de computación cuántica, y si me aprietas en el uso de Machine Learning (esto es IA que no conversa en lenguaje humano por decirlo de manera sencilla) para el análisis de partículas, pero ya está, no lo es en temas de IA, ni en política, o sociología.
En la entrevista habla de antropología evolutiva, gobernanza política, la filosofía política de Rousseau y predicción sociológica, campos en los que no tiene formación ni experiencia conocida más allá de haber leído mucho como yo.
Lo de que Anthropic ha retenido su último modelo, Claude Mythos, en verdad en parte, pero lo simplifica demasiado, dando una imagen de que Mythos es algo que en realidad no es, es algo, que en principio es mucho peor, aunque también es posible que se trate de un éxito de marketing y nada más.
![]()
What is Mythos and why are experts worried about Anthropic’s AI model
The company says Mythos is too dangerous to release publicly. Cybersecurity experts agree the model's capabilities matter, but not all of them are buying the most alarming claimswww.scientificamerican.com
Dice que ya cedemos soberanía a las máquinas cuando activamos el piloto automático, luego salta a que la IA gobernará... El salto que pega no es válido desde un punto de vista lógico.
El piloto automático opera en un dominio físico cerrado, con un único objetivo medible (mantener un vehículo en la trayectoria correcta) y con un humano que puede desconectarlo en cualquier momento.
La gobernanza política implica pluralismo de valores, legitimidad democrática, responsabilidad ante los gobernados, gestión de conflictos sobre quién decide qué se optimiza, y ausencia de una función objetivo unívoca. Más allá de que en el Congreso se insulten y den zascas, detras del circo hay todo esto.
Lo de eliminar la corrupción ignora tres problemas bien establecidos en ciencia política y teoría de sistemas:
1.- El sesgo de entrenamiento: la IA aprende de datos producidos por humanos, con lo cual hereda los patrones de corrupción, favoritismo y desigualdad que ya existen en los procesos que se supone que debe limpiar. Hemos visto muchos casos donde IAs que deberían ser asépticas se han mostrado abiertamente racistas por los datasets con los que se han entrenado.
2.- La Ley de Goodhart: cuando conviertes un indicador en un objetivo, la gente deja de trabajar para mejorar lo que el indicador medía y empieza a trabajar para mejorar el número: si evalúas colegios por notas en exámenes estandarizados, los profesores tienden a enseñar para el examen en lugar de enseñar para aprender, las notas suben y el aprendizaje real no mejora necesariamente, porque el incentivo ya no apunta a lo mismo que la métrica pretendía capturar.
3.- Quien controla los parámetros de entrenamiento y el acceso al sistema se convierte en el nuevo locus de poder. Sustituir la corrupción distribuida actual por una concentración de control en los pocos que poseen y configuran los modelos es un cambio de forma, no una eliminación del problema. La ciencia política tiene décadas de literatura sobre esto (Acemoglu, North, Ostrom) que Latorre no cita ni menciona, quizás porque para generar titulares y promocionar su libro es mejor sentenciar con temas que llamen la atención de la gente y les genere la necesidad de comprar el libro.
Dice que la IA tiene ventaja evolutiva porque su sustrato no es biológico y por tanto no perece... Aquí se me abren las carnes... Los sistemas de IA dependen de infraestructura física (centros de datos, GPUs, chips de memoria) que se degrada (de aquí las alucinaciones de la IA), requiere mantenimiento continuo, consume cantidades masivas de energía, y depende de cadenas de suministro de materiales escasos con alta concentración geopolítica. Sin electricidad, sin refrigeración, sin hardware reemplazable regularmente, un modelo de IA deja de existir en días o semanas. Los seres biológicos nos adaptamos y nos movemos con mayor facilidad... y tenemos magnetrones en nuestros hornos microondas que podemos desmontar y convertir en un arma de pulso electromagnético (no se os ocurra intentarlo).
Habla de ventaja evolutiva de la IA como si los modelos de lenguaje fueran organismos que compiten en un proceso de selección natural. La evolución biológica opera mediante reproducción, mutación aleatoria y selección diferencial a lo largo de generaciones. Los modelos de IA son diseñados, entrenados y actualizados intencionalmente por humanos.
Repite en varios momentos que no está abogando por nada, solo "constatando" que las cosas sucederán. Esto es determinismo tecnológico, no una observación neutral. Historiadores de la tecnología como Langdon Winner o sociólogos como Judy Wajcman llevan décadas documentando que el desarrollo tecnológico no tiene una trayectoria inevitable, está permanentemente moldeado por decisiones políticas, regulaciones, resistencia social y distribución de poder.
Afirma que "en Estados Unidos se ha disparado el número de cristianos". Las encuestas de Gallup y Pew Research (esto lo había buscado a raiz de un artículo sobre curas católicos en EE.UU comentando que habían subido los bautizos) muestran la tendencia contraria sostenida durante al menos 20 años: la desafiliación religiosa ha crecido consistentemente en EE.UU. Puede que existan microtendencias en cohortes jóvenes específicas que él esté interpretando como tendencia general, pero afirmarlo como hecho simple sin aportar una prueba es cuestionable.
En lo que sí estoy de acuerdo es en la preocupación por la desinformación mediante deepfakes y la suplantación de figuras públicas fallecidas es real y documentada. La preocupación por la concentración de poder en pocas empresas tecnológicas tiene fundamento político y económico. La observación de que los marcos regulatorios van muy por detrás del desarrollo tecnológico es compartida por la mayor parte de los investigadores serios en gobernanza de IA, más allá de percepciones personales en base a las noticias que se filtran en los medios.
Latorre publicó Ética Para Máquinas en 2019 y en la entrevista sugiere que predijo el tridente Musk-Trump-religión "antes de que pasase todo esto".
Visto así en 2026, este hombre fue un visionario, salvo que vivieses el panorama intelectual sobre IA en 2019. Es más un Julio Verne que estaba en los círculos apropiados en el momento justo.
Nick Bostrom había publicado Superintelligence en 2014. Max Tegmark publicó Life 3.0 en 2017. La Unión Europea ya tenía grupos de trabajo sobre regulación de IA desde 2018. El papel de los oligarcas tecnológicos como nueva clase de poder era ya un tema central en obras como The Age of Surveillance Capitalism de Shoshana Zuboff, de 2018-19. La preocupación por la religión como vector de manipulación política llevaba décadas siendo estudiada en ciencia política.
Para mi la pandemia fue una época prolífica en lo que a lectura se refiere 😅
Cada tecnología que ha reorganizado la vida cotidiana ha generado, antes de ser asimilada, una literatura del pánico que resulta hoy pintoresca. Cuando se generalizó el agua corriente, médicos advirtieron que las cañerías propagarían enfermedades de hogar en hogar. Cuando los frigoríficos llegaron a las cocinas, el miedo a tener una máquina potencialmente tóxica en casa tenía incluso una base empírica real con los primeros refrigerantes (y lo eran). Cuando la informática llegó a las empresas, los sindicatos predijeron el fin del empleo administrativo, y cuando llegó al hogar se habló de una generación que perdería la capacidad de relacionarse con personas reales (y aquí estamos, un Señor Raro en las montañas contestando a un barcelonés).
Algunos de estos miedos resultaron infundados; otros, como los que rodearon a las redes sociales y su efecto sobre la salud mental adolescente, contenían un núcleo de verdad que tardó en tomarse en serio precisamente porque venía envuelto en la misma retórica que en otras ocasiones había resultado exagerada (que viene el lobo).
Pues sí que me ha quedado un buen tocho 🤦🏼