Inteligencia Artificial

Presentas resultados, dices que vas a facturar 32.500 millones en lugar de los 31.770€ que esperaba el mercado, y aún así tus acciones caen casi un 7% en Wall Street.


Un claro síntoma de burbuja en la Inteligencia Artificial.

Mientras tanto, en Santa Clara (California), los empleados de nVidia, accionistas de la compañía, trabajan tanto que no les queda tiempo para gastar lo que ingresan.


Si es verdad lo de trabajar 7 días a la semana hasta las 2 de la mañana con el Lamborghini en el parking, tiene tela. Pero me tomo la noticia con cautela porque el propio redactor indica que son declaraciones de 10 empleados y retirados que se mantienen en el anonimato.

Pero volviendo al tema que os planteo de una posible burbuja en la IA, mi apuesta es que estamos ante una y bien grande, que de hacerse realidad arrastraría a muchas tecnológicas.

Hace unos días, Morinvest (la SICAV de Alicia Koplowitz) liquidaba sus posiciones en Nvidia (con ganancias de +150% en 2024), en TSMC (+60%), en Meta (+50%), y General Electric (+68%). Y también ha reducido sus inversiones en Alphabet (Google), Amazon y Microsoft.


¿Qué opináis? ¿Burbuja o no burbuja?

:ok :ok :ok
Creo que mas acertado no puedes estar en tus valoraciones, aunque pienso que "la burbuja" se va a corregir sola de manera gradual y no va a hacer mucho daño de manera global.

Pero lo del 137.45% de crecimiento de Nvidia en 6 meses es para hacerselo mirar.
 
Como siempre, lo mejor para informarse bien es acudir directamente a la fuente.


O6RaXlU.png


Más allá del volumen de facturación, margen bruto, gastos e ingresos operativos y margen neto, que te habla de forma un tanto burda del resultado global, me parece muy interesante la parte final del informe anterior, para ver cómo está estructurada la cifra de negocio por mercados, su evolución en el tiempo y sobre todo las rentabilidades asociadas a cada una de ellas, para entender mejor cómo puede llegar a evolucionar el resultado neto en un futuro.

Como todas estas cifras son públicas, le he pedido a ChatGPT que me prepare una tabla con la evolución de la cifra de ventas por mercado en los últimos 10 años, y se ve claramente la conversión de una compañía que hacía gráficas para juegos (y minería de criptomonedas, no lo olvidemos) a otra muy distinta que está llenando los centros de datos con su hardware especializado.

Insisto en que me gustaría ver esta misma table pero con el beneficio neto para cada uno de los mercados, pero eso no lo publican.


URIU7YF.png

:ok :ok :ok
 
Ayer estuve con ChatGPT a vueltas pasando un megascript en Python a una query de SQL Server. Curiosamente, lo más complejo lo hizo sin ningún problema. Pero hubo un momento que ejecutaba una query SQL en la que se añadían valores a columnas de una tabla, y daba un error indicando que el número de nombres de columnas era diferente del número de valores que quería añadir. Por no mirarlo a mano, más de 70 columnas, se lo puse a ChatGPT. Entendía el error y decía que corregía la query. Ni de coña. Hubo un punto que le puse en CSV en una línea los nombres de columna y en otra línea los valores. Decía que lo añadía al script pero seguía dando el error.

Al final me puse a contar el número de columnas, que estaba bien. Y luego los valores. A tomar por culo, que había 5 que se los comía con patatas, 5 seguidos porque sí, sin ningún sentido. Y le volvía a poner, esto ya por intentar ver si era capaz, lo que literalmente tenía que poner en la query, un mísero copy-paste... ¡y volvía a cargarse valores!

Surrealista. De coña que todo el trabajo complejo fue capaz de hacerlo en cinco segundos pero lo más tonto no. Y lo peor es pasar el tiempo intentando hacerlo entrar en razón y no da. En plan niño pequeño, de coge esto y ponlo aquí, sin resultados.
 
Surrealista. De coña que todo el trabajo complejo fue capaz de hacerlo en cinco segundos pero lo más tonto no. Y lo peor es pasar el tiempo intentando hacerlo entrar en razón y no da. En plan niño pequeño, de coge esto y ponlo aquí, sin resultados.

Hablas de ChatGPT como si fuera un humano... ¡y no lo es!

Con la IA, y en especial con la generativa, hay infinidad de casos extraordinarios y que se resuelven sorprendentemente bien, pero también hay otro enorme montón de malos resultados que te ponen en guardia y que a mi por lo menos me hacen revisar siempre los resultados para comprobar que tienen sentido.

:ok :ok :ok
 
Pero Tim... si es que en el fondo es normal y es algo intrínseco al propio diseño de una red neuronal, de base van a tener siempre esas taras y no se van a erradicar, al menos no con la tecnología base de la que parten y menos en las generativas.

Ya comenté que nosotros hacemos muchísimo trabajo con querys de SQL, cosas que alguno ni se imagina o le cuesta siquiera entender, y ChatGPT patina una barbaridad aun cuándo se lo explicas. Pero es que tiene todo el sentido.

Coge la parte positiva, te ha hecho una parte del trabajo y el resto has tenido que afinarlo tú.
 
No es un ser humano pero la interacción se realiza como si lo fuera. Pero me refiero a que le decía: "copia este texto que te pongo a continuación y ponlo tal cual". Y no lo hacía.

Mi sorpresa viene por cómo no es capaz de hacer un simple copy-paste de texto pero sí hacer una conversión de un script de Python, pensado para añadir datos en un Databricks, a un código SQL y sin ningún problema interpretar qué tablas de la BD corresponden. Esa parte fue espectacular.
 
Mi sorpresa viene por cómo no es capaz de hacer un simple copy-paste de texto pero sí hacer una conversión de un script de Python, pensado para añadir datos en un Databricks, a un código SQL y sin ningún problema interpretar qué tablas de la BD corresponden. Esa parte fue espectacular.
¿Cuántas veces crees que algo muy similar se ha hecho en todo mundo hasta ahora? Pues la mayoría de ellas, las ha usado para aprender ChatGPT, recordemos que entre otros se ha engullido todo Stack Overflow y todo GitHub.

Pero claro, allá donde ya le pides algo distinto es donde puede liarse porque además del entrenamiento, se ha diseñado para que "invente" cuando le falten recursos. Y es incapaz, por diseño, de entender que se está columpiando.
 
No es un ser humano pero la interacción se realiza como si lo fuera.


Ese es el mejor argumento de venta para quien ha creado la herramienta, y el que provoca el efecto WoW.

Yo siempre me pongo en guardia y me recuerdo a mi mismo que estoy hablando con un puñetero programa. Muy bueno, pero un programa al fin y al cabo.

:ok :ok :ok
 
No es un ser humano pero la interacción se realiza como si lo fuera. Pero me refiero a que le decía: "copia este texto que te pongo a continuación y ponlo tal cual". Y no lo hacía.

Mi sorpresa viene por cómo no es capaz de hacer un simple copy-paste de texto pero sí hacer una conversión de un script de Python, pensado para añadir datos en un Databricks, a un código SQL y sin ningún problema interpretar qué tablas de la BD corresponden. Esa parte fue espectacular.

Yo ya lo dije hace semanas. Lo peor de la IA, con diferencia, es que cuando no sabe como hacer algo... ¡se inventa un resultado con tal de decirte algo! Y si le dices que es un error, te lo reconoce, te pide disculpas... ¡y te da otra solución tan absurda como la primera! Para mi, eso es una línea roja. El no saber si la respuesta es fiable o no, mata la utilidad del asunto.
 
  • Me gusta
Reacciones: Tim
Es una línea roja pero al mismo tiempo hay que pensar que lo que había hasta hace nada era buscar en Google e ir entrando en páginas hasta que alguien de casualidad sabía la solución. Infernal. Yo creo que la IA mejora eso, o al menos lo hace más ágil.
 
Claro, pero es una herramienta y que hay que saber cuales sus carencias y que hay que supervisar todos los resultados.
Esto, hablando de entorno PRO, of course.
 
Yo ya lo dije hace semanas. Lo peor de la IA, con diferencia, es que cuando no sabe como hacer algo... ¡se inventa un resultado con tal de decirte algo! Y si le dices que es un error, te lo reconoce, te pide disculpas... ¡y te da otra solución tan absurda como la primera! Para mi, eso es una línea roja. El no saber si la respuesta es fiable o no, mata la utilidad del asunto.

Es una línea roja pero al mismo tiempo hay que pensar que lo que había hasta hace nada era buscar en Google e ir entrando en páginas hasta que alguien de casualidad sabía la solución. Infernal. Yo creo que la IA mejora eso, o al menos lo hace más ágil.

Claro, pero es una herramienta y que hay que saber cuales sus carencias y que hay que supervisar todos los resultados.
Esto, hablando de entorno PRO, of course.


Las tres afirmaciones son complementarias y definen bien el estado actual de la tecnología.

Con un punto de prudencia y si sabes del tema que estás tratando, es fácil sacarle partido.

Pero si lo pones en manos de alguien que no sabe nada y da por buena la respuesta porque no tiene manera de discernir si está bien o mal... ahí llega el peligro.

Y lamentablemente, esto está pasando.

:ok :ok :ok
 
Han sacado un nuevo AI, que en un futuro próximo permite crear videojuegos que se van creando en tiempo real mientras juegas. Actualmente tienen un prototipo que recrea el viejo DOOM.

El martes, investigadores de Google y la Universidad de Tel Aviv presentaron GameNGen, un nuevo modelo de IA que puede simular interactivamente el clásico juego de disparos en primera persona Doom de 1993 en tiempo real utilizando técnicas de generación de imágenes de IA tomadas de Stable Diffusion. Es un sistema de red neuronal que puede funcionar como un motor de juego limitado, lo que podría abrir nuevas posibilidades para la síntesis de videojuegos en tiempo real en el futuro..

 
Arriba Pie