Artículo original que referencian en 9to5mac:

Llevan desde el WWDC de 2023 trabajando con OpenAI. Interesante la preocupación de Microsoft por el tema, principalmente por la carga que va a suponer esto a los datacenters.
 
Madre mía lo de los iconos de colores, o lo de moverlos de sitio, o lo del centro de control a tu gusto…. Copiando cosas de Android como cada año… y cosas que si Steve Jobs saliera de su tumba los mataba a todos, empezando por los 2 moñas de pelo blanco.
 
Los community managers ya usan aplicaciones que cuestan nada y menos que te permiten publicar desde una web a todo tipo de redes sociales, todo automatizado. No necesitan usar el móvil en el ordenador. Vamos, ya lo hacía yo hace 4-5 años, lo que habrá evolucionado eso.
 


Como se puede ver en este vídeo resumen, en cuanto te sales de las cuatro cosas que sabe hacer Apple, te muestra un popup preguntando si quieres que lo consulte en ChatGPT.
 
Ah no, que va a ser así. Pedir el 15 Pro para semejante chorrada de procesamiento y funcionalidades, hay que joderse.

Pero... ¿esto va a ser solo en la beta, o es que la IA solo funcionará a partir del 15 Pro? Por que como sea eso, menuda cagada...
 
Apple Inteligence no estará disponible en beta hasta otoño. Por ese motivo enseñaron las novedades de Vision Pro, iOS, iPad OS y macOS de primeras, dejando la IA como último apartado. Porque es un concepto aparte que no viene con los sistemas operativos de primeras. En otoño, beta en iPhone 15 Pro y Pro Max, aparte de los iPhone 16 que saldrán, y en iPad y Mac que tengan procesador M1 en adelante. Y sólo en inglés de USA. Vamos, que hasta 2025 no empezaremos a ver otros idiomas y a saber cuándo la versión definitiva, tal vez con iOS19.

Resumen: que lo que enseñaron ayer fue un caramelito para poder decir que están trabajando en temas de IA y no se los coman los inversores. Están en pañales, ni lo vieron venir y han tenido que presentar cualquier cosa para aparentar. Su IA no da para más que hacer resúmenes, priorizar notificaciones y, oh guau, borrar objetos al editar una foto (hace años que lo hago con Google Photos y otras apps). Para todo lo demás, ChatGPT. A futuro también Google Gemini.

Para que quede claro:
1718101662159.png
 
Lo mismo que hace Siri hoy en día, buscar en Internet cuando no sabe contestar, que por cierto es lo que hace la mayoría de las veces.

:ok :ok :ok

No hombre, si has usado Chatgpt o Gemini sabes que no son comparables. Siri hoy en día va a internet... pero no sabe interpretar la información que recoge. Te planta el enlace y ya. En Apple Watch es inusable. ChatGPT sabe ir a internet, leer páginas, interpretarlas, aprende y sobre eso es capaz de contestarte. Unas son IA, Siri no es una IA, es un simple agente que entiende un listado de frases y no lo saques de ahí porque no las comprende. Hasta Apple lo reconoce en su web de Apple Intelligence, ahora sí va a ser un asistente normal con memoria y contexto:

1718101940169.png
 
No hombre, si has usado Chatgpt o Gemini sabes que no son comparables. Siri hoy en día va a internet... pero no sabe interpretar la información que recoge. Te planta el enlace y ya.


No me refería a las funcionalidades concretas, solo comparaba que son estrategias similares para completar un producto "cojo".

¿Que Siri no llega con lo que hace? Le metemos Internet

¿Que los nuevos modelos locales de IA no llegan con lo que hacen? Les metemos ChatGPT-4o

:ok :ok :ok
 
  • Me gusta
Reacciones: Tim
Que no sea la calculadora...
Que no sea la calculadora...
Que no sea la calculadora...
Que no sea la calculadora...
Que no sea la calculadora...
Que no sea la calculadora...
Que no sea la calculadora...
Que no sea la calculadora...
Que no sea la calculadora...
Que no sea la calculadora...
 
Arriba Pie