• El foro de relojes de habla hispana con más tráfico de la Red, donde un reloj es algo más que un objeto que da la hora. Relojes Especiales es el punto de referencia para hablar de relojes de todas las marcas, desde Rolex hasta Seiko, alta relojería, relojes de pulsera y de bolsillo, relojería gruesa y vintages, pero también de estilográficas. Además, disponemos de un foro de compraventa donde podrás encontrar el reloj que buscas al mejor precio. Para poder participar tendrás que registrarte.

    IMPORTANTE: Asegúrate de que tu dirección de email no está en la lista Robinson (no publi), porque si lo está no podremos validar tu alta.

Así de hace un anuncio de una marca de relojes, por favor....

  • Iniciador del hilo Iniciador del hilo vdky
  • Fecha de inicio Fecha de inicio
Lo de la IA es alucinante. Y tengo 50 años, he vivido el inicio de internet, el boom de los móviles...

En el trabajo la usamos a saco... es fascinante... e inquietante.
 
  • Me gusta
Reacciones: cestommek, jorgesdb y Jose Perez
Lo de la IA es alucinante. Y tengo 50 años, he vivido el inicio de internet, el boom de los móviles...

En el trabajo la usamos a saco... es fascinante... e inquietante.
Pienso lo mismo. El potencial de uso para un “ciudadano de a pie” es tremendo sobre todo en temas que se nos escapan y con los que hasta ahora había que recurrir a especialistas y muchas veces nos la “metían doblada”

Lo último que he hecho ha sido la declaración de la renta de mi madre que es un tanto compleja (para mí que no tengo ni idea, claro) con un piso en copropiedad, dependencia y discapacidad, residencia, alquileres, parte autonómica, etc.

Obviamente no la he dado por buena y la hemos hecho con un gestor y lo ha clavado todo. Pero es que te dice hasta lo que tienes que poner en cada casilla.

Con el tema de los seguros que comenté en otro post en el hilo tuve un desacuerdo con la correduría de seguros que me “quitaba” la razón en un tema trascendente y al final tuve que hacer una reclamación ante el departamento correspondiente de la aseguradora que me ha dado la razón. Bueno, a mí no, porque todo lo hizo la IA, desde el planteamiento inicial hasta el intercambio de correos. Y lo bueno es que por el camino he aprendido un montón de cosas que no sabía porque puedes preguntar las veces que haga falta hasta que logras entenderlo.

También es cierto que no la puedes dejar sola porque a veces alucina pero nada especial si estás acostumbrado a no dar nada por sentado y no creerlo todo a pies juntillas.

Por otra parte a mí me interesa como “herramienta “ de uso cotidiano. La parte técnica escapa a mí capacidad de comprensión.
 
  • Me gusta
Reacciones: demetrius y Goldoff
Pero es que el titular, ya es totalmente rebatible: ¿La ventaja de la IA frente al humano es su soporte no perecedero? Desde el momento que la IA necesita una infraestructura, sistemas complejos, y una cantidad de energía brutal para existir,
Bueno, reconozco que desde que vi Matrix mi vida no ha sido lo mismo, y al leer a este hombre -al que no conocía- me ha parecido que todo empezaba a encajar... sesgo de confirmación, supongo :pardon:
 
  • Me gusta
Reacciones: yakokornecki, jorgesdb, miminh0 y 1 persona más
Bueno, reconozco que desde que vi Matrix mi vida no ha sido lo mismo, y al leer a este hombre -al que no conocía- me ha parecido que todo empezaba a encajar... sesgo de confirmación, supongo :pardon:
Seremos pilas. Y los que tengan Tudor, baterías.
 
  • Me parto
  • Me gusta
Reacciones: Jeronimus, demetrius, yakokornecki y 4 más
Bueno, reconozco que desde que vi Matrix mi vida no ha sido lo mismo, y al leer a este hombre -al que no conocía- me ha parecido que todo empezaba a encajar... sesgo de confirmación, supongo :pardon:
Hay que luchar! Aunque eso suponga comer papillas asquerosas en una nave de mierda por alcantarillas, mientras los que viven enchufados en Matrix disfrutan de solomillos cojonudos y vinos estupendos.

O no, yo qué sé. Es que un solomillo al punto y un vinito...joder...
 
  • Me parto
Reacciones: Goldoff y jorgesdb
Los inventos llegan por doquier y el mercado es el que filtra y decide cuál se queda en nuestras vidas.

Estoy bastante de acuerdo con que el mercado filtra, pero creo que esa formulación esconde un par de problemas que en el caso de la IA se vuelven especialmente urgentes.

A veces hablamos de la IA como si fuera un fenómeno meteorológico: algo que simplemente ocurre y ante lo cual solo cabe adaptarse. Creo que ese es precisamente el error que conviene nombrar.

Pensemos en el zepelín. No era una tecnología fallida: era silenciosa, cómoda, viable para viajes transatlánticos. Lo que la eliminó no fue simplemente su inferioridad técnica, sino en buena medida un accidente filmado en el momento equivocado, entre otros factores. Un evento contingente que cerró un camino entero. La serie 'Fringe' jugaba con esa idea: un universo paralelo donde el zepelín ganó y el avión es lo raro. Lo perturbador no es ese mundo alternativo, sino comprender que el nuestro tiene exactamente la misma naturaleza; solo que lo miramos desde dentro y nos parece inevitable.

Ese es el cementerio que olvidamos: no proyectos fallidos, sino caminos perfectamente viables que la historia cerró por razones que tienen más que ver con el poder, el capital o la pura contingencia que con el mérito. El teclado QWERTY se popularizó en un contexto donde primaban limitaciones mecánicas, y seguimos usándolo. O el formato VHS vs. Beta. Los economistas lo llaman dependencia de trayectoria: una vez que una tecnología gana masa crítica, se retroalimenta sola independientemente de sus méritos iniciales.

Con la IA pasa algo análogo. Los grandes modelos de lenguaje no ganaron porque fueran la respuesta más sólida a cómo debe pensar una máquina. Ganaron porque encajaban con lo que ya tenían tres o cuatro empresas: datos masivos sin regular, infraestructura de cómputo ya amortizada y accionistas con prisa. No es que no funcionen —funcionan, y muy bien en muchas tareas—, sino que su dominio no se explica solo por su mérito técnico. Como documentó David F. Noble, el diseño de la tecnología nunca depende solo de la eficiencia, sino de quién tiene poder para imponer su dirección. Había otras formas de hacer IA —más pequeñas, más transparentes, más explicables— que no eran mala tecnología. Eran, simplemente, mal negocio.

Los enfoques alternativos no murieron porque fueran callejones sin salida. Murieron porque el accidente histórico de que internet generara datos masivos justo cuando las GPUs eran baratas favoreció a quien ya estaba en posición de aprovecharlo. Nuestro universo de IA podría haber sido otro. Y una pregunta pertinente sería si todavía puede serlo. Porque el problema no es solo que se eligió un camino, sino que ese camino genera un bloqueo: cuanto más dinero se invierte en LLMs, más difícil es financiar la alternativa, porque el talento, el hardware y la educación se especializan solo en eso. No es que las otras vías estén muertas, es que las estamos dejando sin oxígeno financiero.

Y luego está lo que Lewis Mumford llamaría el mito de la máquina: la operación de presentar todo esto como inevitable. Cuando algo parece natural, deja de cuestionarse. Tzvetan Todorov describía el mismo mecanismo al analizar la conquista de América: confundimos la victoria del más poderoso con la del más apto, y luego construimos la narrativa que lo justifica. El determinismo tecnológico no gana en los laboratorios. Gana en los imaginarios, cuando dejamos de ver las alternativas como alternativas viables antes siquiera de explorarlas.

La paradoja concreta es esta: tenemos una IA que a veces miente (alucina) con absoluta confianza. Para el mercado eso es aceptable porque es rápida y escalable. ¿Es aceptable para mediar nuestra relación con el conocimiento? Eso es bastante más discutible.

Pero tal vez la pregunta más inquietante no sea esa, sino si estamos construyendo una inteligencia que nos sirva o nos estamos adaptando nosotros para ser legibles y útiles para la inteligencia que al "mercado" le convenía construir.
 
  • Me gusta
  • Me encanta
  • Wow!
Reacciones: Ramoncc, Jose Perez, demetrius y 3 más
Si profundizas en el neuromarketing, veras que esos detalles, en los que tienes razon, son irrelevantes en el mensaje esencial que capta el consumidor y que quiere transmitir la publicidad. El 95% aproximadamente, del receptor del anuncio, no lo verá, y del 5% restante, solo unos pocos iran analizando el vídeo para ver los típicos fallos de la IA.

Y eso contando, que a los que lo ven, les importen...
Para las empresas, son todo beneficios.
Lo sé, es como las fake news, la gente se las traga sin pensar.

Cuando veo cualquier producto audiovisual necesito desconectar medio cerebro para no ver todos los fallos de series, películas y anuncios.
Creo que ya la IA sí puede usarse para entrenar a otras IA. Ya se está trabajando en ello con modelos LLM avanzados. Puede corregir fallos y sesgos, pero también potenciarlos. Y apenas empieza.
Creo que se llama, destilación en ML.

Con el tiempo comprenderemos y aceptaremos, que no hay vuelta atrás y no vamos a poder ir contra esto. Solo controlarlo y regularlo.

Bajando a nivel muy básico. Es posible que algo salga casi todo de IA y con la mínima intervención humana? Desde luego. Algo tan básico como la música de fondo que estan poniendo ya en muchos centros comerciales ( se nota bastante por lo cutres que son algunas) .
Se solicita a una IA que elabore una letra sobre un tema que nos de la gana, se traspasa a Suno por ejemplo, y tenemos una canción en segundos.
Si es solo melodía, ya casi ni hace falta plasmar ideas nuestras, solo seleccionar opciones de estilo y se genera. La idea humana se irá minimizando poco a poco.

Que no hay vuelta atrás lo tengo claro desde hace una década.

Esto se acabará regulando o quizás auto regulando, mira lo sucedido con Seedance, que lo tuvieron que retirar por problemas de derechos.

Vi algún cortometraje que saltaba a la vista a que actor estaba suplantando la IA, y salvo Bruce Willis que ha vendido sus derechos de imagen para que hagan películas con IA (vistas las de los últimos años, aunque haga el guión la IA, van a ser mejores seguro), y la familia de Val Kilmer que ha vendido la imagen para una película que acaba de salir (o está a punto), el resto de actores y actrices mantienen sus derechos de imagen, por no hablar de franquicias, Disney, etc.

Lo de la música no me extrañaría, mira lo que está pasando en Spotify, aunque tampoco hace falta, aunque también es cierto que existen muchas bibliotecas de música para estas cosas, programas de tv etc.
 
  • Me gusta
Reacciones: cestommek
Creo que ya la IA sí puede usarse para entrenar a otras IA. Ya se está trabajando en ello con modelos LLM avanzados. Puede corregir fallos y sesgos, pero también potenciarlos. Y apenas empieza.
Creo que se llama, destilación en ML.

Con el tiempo comprenderemos y aceptaremos, que no hay vuelta atrás y no vamos a poder ir contra esto. Solo controlarlo y regularlo.

Bajando a nivel muy básico. Es posible que algo salga casi todo de IA y con la mínima intervención humana? Desde luego. Algo tan básico como la música de fondo que estan poniendo ya en muchos centros comerciales ( se nota bastante por lo cutres que son algunas) .
Se solicita a una IA que elabore una letra sobre un tema que nos de la gana, se traspasa a Suno por ejemplo, y tenemos una canción en segundos.
Si es solo melodía, ya casi ni hace falta plasmar ideas nuestras, solo seleccionar opciones de estilo y se genera. La idea humana se irá minimizando poco a poco.

Que se me pasó lo de la destilación 😅

Tienes razón, pero no es algo nuevo, es algo que se lleva haciendo bastante tiempo.

La idea es que un modelo grande actúa como profesor y uno más pequeño como alumno: el alumno se entrena usando las respuestas que genera el profesor, de forma que absorbe su conocimiento sin necesitar el mismo tamaño ni potencia de cómputo, de hecho el profesor no enseña, el alumno aprende. Es como si un experto escribiera un libro de texto muy bueno y luego usáramos ese libro para enseñar a otro estudiante, sin que ambos tengan que estar en la misma sala. De hecho, modelos conocidos como Llama o Mistral fueron construidos en parte así, usando datos generados por modelos más grandes como GPT.

Y lo que dices sobre sesgos es especialmente importante. El alumno no solo aprende el conocimiento del profesor, aprende también sus errores y sus sesgos. Si el profesor tiene una visión distorsionada sobre algo, el alumno la replica, y a veces incluso la amplifica. Hay investigaciones que muestran que si encadenas varias generaciones de modelos entrenados unos con otros sin inyectar datos reales nuevos, la calidad se degrada progresivamente, como fotocopiar una fotocopia. A ese fenómeno se le llama model collapse, y es uno de los riesgos reales del uso masivo de datos sintéticos para entrenar IA.

También existe el RLHF (Reinforcement Learning from Human Feedback), donde se entrena un modelo auxiliar, el reward model, usando comparaciones hechas por humanos entre pares de respuestas. Ese modelo auxiliar actúa como juez y puntúa las respuestas del LLM principal durante su entrenamiento. En el RLAIF, ese mismo rol de juez lo ocupa otra IA en lugar de humanos. Así es como se entrena buena parte de los modelos actuales de última generación.
 
  • Me gusta
Reacciones: cestommek y Jose Perez
Lo de la IA es alucinante. Y tengo 50 años, he vivido el inicio de internet, el boom de los móviles...

En el trabajo la usamos a saco... es fascinante... e inquietante.

Yo voy a por los 52 y estoy creando aplicaciones que hacen uso de la IA (no solo de las LLM) para quitar trabajos tediosos relacionados con la ciberseguridad a los desarrolladores permitiéndoles centrarse en las cosas importantes (para ellos). 😅
 
  • Me gusta
Reacciones: cestommek, Ramoncc y Jose Perez
Estoy bastante de acuerdo con que el mercado filtra, pero creo que esa formulación esconde un par de problemas que en el caso de la IA se vuelven especialmente urgentes.

A veces hablamos de la IA como si fuera un fenómeno meteorológico: algo que simplemente ocurre y ante lo cual solo cabe adaptarse. Creo que ese es precisamente el error que conviene nombrar.

Pensemos en el zepelín. No era una tecnología fallida: era silenciosa, cómoda, viable para viajes transatlánticos. Lo que la eliminó no fue simplemente su inferioridad técnica, sino en buena medida un accidente filmado en el momento equivocado, entre otros factores. Un evento contingente que cerró un camino entero. La serie 'Fringe' jugaba con esa idea: un universo paralelo donde el zepelín ganó y el avión es lo raro. Lo perturbador no es ese mundo alternativo, sino comprender que el nuestro tiene exactamente la misma naturaleza; solo que lo miramos desde dentro y nos parece inevitable.

Ese es el cementerio que olvidamos: no proyectos fallidos, sino caminos perfectamente viables que la historia cerró por razones que tienen más que ver con el poder, el capital o la pura contingencia que con el mérito. El teclado QWERTY se popularizó en un contexto donde primaban limitaciones mecánicas, y seguimos usándolo. O el formato VHS vs. Beta. Los economistas lo llaman dependencia de trayectoria: una vez que una tecnología gana masa crítica, se retroalimenta sola independientemente de sus méritos iniciales.

Con la IA pasa algo análogo. Los grandes modelos de lenguaje no ganaron porque fueran la respuesta más sólida a cómo debe pensar una máquina. Ganaron porque encajaban con lo que ya tenían tres o cuatro empresas: datos masivos sin regular, infraestructura de cómputo ya amortizada y accionistas con prisa. No es que no funcionen —funcionan, y muy bien en muchas tareas—, sino que su dominio no se explica solo por su mérito técnico. Como documentó David F. Noble, el diseño de la tecnología nunca depende solo de la eficiencia, sino de quién tiene poder para imponer su dirección. Había otras formas de hacer IA —más pequeñas, más transparentes, más explicables— que no eran mala tecnología. Eran, simplemente, mal negocio.

Los enfoques alternativos no murieron porque fueran callejones sin salida. Murieron porque el accidente histórico de que internet generara datos masivos justo cuando las GPUs eran baratas favoreció a quien ya estaba en posición de aprovecharlo. Nuestro universo de IA podría haber sido otro. Y una pregunta pertinente sería si todavía puede serlo. Porque el problema no es solo que se eligió un camino, sino que ese camino genera un bloqueo: cuanto más dinero se invierte en LLMs, más difícil es financiar la alternativa, porque el talento, el hardware y la educación se especializan solo en eso. No es que las otras vías estén muertas, es que las estamos dejando sin oxígeno financiero.

Y luego está lo que Lewis Mumford llamaría el mito de la máquina: la operación de presentar todo esto como inevitable. Cuando algo parece natural, deja de cuestionarse. Tzvetan Todorov describía el mismo mecanismo al analizar la conquista de América: confundimos la victoria del más poderoso con la del más apto, y luego construimos la narrativa que lo justifica. El determinismo tecnológico no gana en los laboratorios. Gana en los imaginarios, cuando dejamos de ver las alternativas como alternativas viables antes siquiera de explorarlas.

La paradoja concreta es esta: tenemos una IA que a veces miente (alucina) con absoluta confianza. Para el mercado eso es aceptable porque es rápida y escalable. ¿Es aceptable para mediar nuestra relación con el conocimiento? Eso es bastante más discutible.

Pero tal vez la pregunta más inquietante no sea esa, sino si estamos construyendo una inteligencia que nos sirva o nos estamos adaptando nosotros para ser legibles y útiles para la inteligencia que al "mercado" le convenía construir.
Super interesante tu enfoque la verdad y explicado así no puedo más que estar de acuerdo
 
  • Me gusta
Reacciones: IBACO
381-1532336916.webp
 
  • Me parto
Reacciones: miminh0
Estoy bastante de acuerdo con que el mercado filtra, pero creo que esa formulación esconde un par de problemas que en el caso de la IA se vuelven especialmente urgentes.

A veces hablamos de la IA como si fuera un fenómeno meteorológico: algo que simplemente ocurre y ante lo cual solo cabe adaptarse. Creo que ese es precisamente el error que conviene nombrar.

Pensemos en el zepelín. No era una tecnología fallida: era silenciosa, cómoda, viable para viajes transatlánticos. Lo que la eliminó no fue simplemente su inferioridad técnica, sino en buena medida un accidente filmado en el momento equivocado, entre otros factores. Un evento contingente que cerró un camino entero. La serie 'Fringe' jugaba con esa idea: un universo paralelo donde el zepelín ganó y el avión es lo raro. Lo perturbador no es ese mundo alternativo, sino comprender que el nuestro tiene exactamente la misma naturaleza; solo que lo miramos desde dentro y nos parece inevitable.

Ese es el cementerio que olvidamos: no proyectos fallidos, sino caminos perfectamente viables que la historia cerró por razones que tienen más que ver con el poder, el capital o la pura contingencia que con el mérito. El teclado QWERTY se popularizó en un contexto donde primaban limitaciones mecánicas, y seguimos usándolo. O el formato VHS vs. Beta. Los economistas lo llaman dependencia de trayectoria: una vez que una tecnología gana masa crítica, se retroalimenta sola independientemente de sus méritos iniciales.

Con la IA pasa algo análogo. Los grandes modelos de lenguaje no ganaron porque fueran la respuesta más sólida a cómo debe pensar una máquina. Ganaron porque encajaban con lo que ya tenían tres o cuatro empresas: datos masivos sin regular, infraestructura de cómputo ya amortizada y accionistas con prisa. No es que no funcionen —funcionan, y muy bien en muchas tareas—, sino que su dominio no se explica solo por su mérito técnico. Como documentó David F. Noble, el diseño de la tecnología nunca depende solo de la eficiencia, sino de quién tiene poder para imponer su dirección. Había otras formas de hacer IA —más pequeñas, más transparentes, más explicables— que no eran mala tecnología. Eran, simplemente, mal negocio.

Los enfoques alternativos no murieron porque fueran callejones sin salida. Murieron porque el accidente histórico de que internet generara datos masivos justo cuando las GPUs eran baratas favoreció a quien ya estaba en posición de aprovecharlo. Nuestro universo de IA podría haber sido otro. Y una pregunta pertinente sería si todavía puede serlo. Porque el problema no es solo que se eligió un camino, sino que ese camino genera un bloqueo: cuanto más dinero se invierte en LLMs, más difícil es financiar la alternativa, porque el talento, el hardware y la educación se especializan solo en eso. No es que las otras vías estén muertas, es que las estamos dejando sin oxígeno financiero.

Y luego está lo que Lewis Mumford llamaría el mito de la máquina: la operación de presentar todo esto como inevitable. Cuando algo parece natural, deja de cuestionarse. Tzvetan Todorov describía el mismo mecanismo al analizar la conquista de América: confundimos la victoria del más poderoso con la del más apto, y luego construimos la narrativa que lo justifica. El determinismo tecnológico no gana en los laboratorios. Gana en los imaginarios, cuando dejamos de ver las alternativas como alternativas viables antes siquiera de explorarlas.

La paradoja concreta es esta: tenemos una IA que a veces miente (alucina) con absoluta confianza. Para el mercado eso es aceptable porque es rápida y escalable. ¿Es aceptable para mediar nuestra relación con el conocimiento? Eso es bastante más discutible.

Pero tal vez la pregunta más inquietante no sea esa, sino si estamos construyendo una inteligencia que nos sirva o nos estamos adaptando nosotros para ser legibles y útiles para la inteligencia que al "mercado" le convenía construir.
iba a contestar a Mario en esta línea pero menos mal que has llegado tú antes para hacerlo dos millones de veces mejor de lo que iba a exponer yo. Siempre un gusto leerte
 
  • Me encanta
Reacciones: IBACO
Pero tal vez la pregunta más inquietante no sea esa, sino si estamos construyendo una inteligencia que nos sirva o nos estamos adaptando nosotros para ser legibles y útiles para la inteligencia que al "mercado" le convenía construir.
Interesante cuestión. EMO probablemente ambas cosas a la vez.

Buen post.
 
  • Me encanta
Reacciones: IBACO
Yo trabajo en una multinacional, en el I+D, y veo como usamos la IA en desarrollo de software, en ingeniería, como se está implantando a nivel de back-office, producción,... y alucino. Yo soy matemático y también la utilizo en mi software de simulaciones, mis cálculos, etc. Hace pocos años no podía ni imaginar todo esto. Y lo que queda por venir.

En algunas áreas del I+D es super útil porque es una herramienta espectacular. En otras... una amenaza inminente, hasta el punto de que toda el área está en peligro. Un arma de doble filo.

Te puede gustar esto que nos ha tocado vivir, o no (me refiero a nivel profesional)... porque aumenta la productividad y la competitividad, a veces a un precio que no es agradable (quizás despidos a corto plazo?) pero no se puede obviar. Desde el punto de vista de la empresa, o te subes a ella y la aprovechas, o te quedas atrás.

Quizás las licencias de IA tendrán que cotizar a la Seguridad Social. Vete tú a saber.

Saludos
 
  • Me gusta
Reacciones: Jose Perez y miminh0
Que pasada de anuncio, lo de la IA es ya increíble y solo es el principio
 
Lo de la IA es alucinante. Y tengo 50 años, he vivido el inicio de internet, el boom de los móviles...

En el trabajo la usamos a saco... es fascinante... e inquietante.

Yo los cumplí el Lunes, tengo 50 años redondos (bueno, y dos días 😂) y cuando pienso como era mi vida a los 20 y como es a día de hoy me da vértigo.
Luego pienso en que todos los grandes avances (excepto el fuego y la rueda) se han hecho en los últimos 150 años y ya me mareo, mi bisabuelo (al que por poco pero conocí) hubiera sigo un personaje de un western si hubiese nacido en USA, tenemos la sensación de que las películas de vaqueros montando a caballo revolver en el cinturón son de hace 300 años y son de antes de ayer…. Si sumamos que la velocidad de avance se multiplica exponencialmente por esos avances a saber lo que a personas como nosotros nos queda por ver…..
 
  • Me gusta
Reacciones: Jose Perez y Ramoncc
Atrás
Arriba Pie