El software interpreta lo que rodea al coche con los sensores. Y el Xiaomi lleva de todo, empezando por un LiDAR.

Tesla lo basa todo en medidas estadísticas, sin precisión exacta. Son objetivas, pues no hay ni un sensor que sirva para medir.

Sobre tu pregunta, Tesla lo basa ahora mismo TODO al software. De ahí que hasta la cuenta de los que se dedican a esa parte se llame “Tesla AI”.

Xiaomi y el resto también necesitan un software muy potente, pero van con ventaja, disponen de datos en tiempo real que son exactos.

Y por todo esto el Xiaomi va solo por un parking. O un Dacia aparca solo. Mientras el Tesla a día de hoy, veremos en agosto, no es capaz ni de decirte con exactitud si hay algo cerca de tu coche cuando aparcas. Cosa que no consigue hacer solo.

Por cierto, Xiaomi no tiene nada que demostrar, hay cientos de vídeos de gente que ya lo tiene, como el del parking. Ya no es una presentación, son vídeos reales.
 
Por cierto, lo comentó el chino este que habla español, que sobre agosto ya no haría falta mantener la mano sobre el volante, en la que sería la siguiente actualización del software y que solucionarán temas legales.
 
Con este coche me hago dos preguntas:

  • ¿Qué porcentaje del mérito lo tiene el software y qué porcentaje lo tienen los sensores que lleva?
  • ¿Cuánto habrá de trola en todo esto? Porque, viniendo de Xiaomi, hasta que no vea pruebas independientes de medios conocidos y reputados, no me terminaré de creer todo.

Aunque pinta a revolcón serio a la competencia, eso seguro.
Lo fabrica BYD, no se cuánto incidirá.

Enviado desde mi CPH2247 mediante Tapatalk
 
Hay un vídeo de la fábrica, propia de Xiaomi, que comentó @Pik hace unos días, y hay cosas que no se han visto nunca en la industria. Poca broma todo esto.
 
Del vídeo ese lo que no entiendo es el parking, que para bajar dos pisos a una zona que está desierta de coches tengas que dar innumerables vueltas por él y no puedas bajar dos pisos seguidos.

El coche muy bien, a ver si estos van a perder la apuesta a manos de Xiaomi. :juas
 
El software interpreta lo que rodea al coche con los sensores. Y el Xiaomi lleva de todo, empezando por un LiDAR.

Tesla lo basa todo en medidas estadísticas, sin precisión exacta. Son objetivas, pues no hay ni un sensor que sirva para medir.

Sobre tu pregunta, Tesla lo basa ahora mismo TODO al software. De ahí que hasta la cuenta de los que se dedican a esa parte se llame “Tesla AI”.

Xiaomi y el resto también necesitan un software muy potente, pero van con ventaja, disponen de datos en tiempo real que son exactos.

Y por todo esto el Xiaomi va solo por un parking. O un Dacia aparca solo. Mientras el Tesla a día de hoy, veremos en agosto, no es capaz ni de decirte con exactitud si hay algo cerca de tu coche cuando aparcas. Cosa que no consigue hacer solo.

Por cierto, Xiaomi no tiene nada que demostrar, hay cientos de vídeos de gente que ya lo tiene, como el del parking. Ya no es una presentación, son vídeos reales.
Y que radar LiDAR tiene un ser humano? No basa todo humano la conducción en su vista? Pues Tesla igual.
 
El ser humano calcula la distancia en una estimación que se hace con dos cámaras. Ay no, que Tesla también se cargó la cámara del frontal, ideal de la muerte para no aparcar 😅
 
No sé si se interpretar bien los datos.

Llevas 33K kms y has hecho 99 ciclos de carga, entonces hasta hecho una media de 333.33 kms por carga, no?
Tienes que tener en cuenta que la batería no se ha usado solo para hacer Km. Está el consumo del centinela que es bastante alto (han prometido reducirlo a la mitad en futuras actualizaciones), el del aire acondicionado en modo acampada, el modo protección del habitáculo cuando dejas el coche al sol en verano y no quieres que el interior esté a 100°, las horas jugando o viendo netflix, etc.
 
Del vídeo ese lo que no entiendo es el parking, que para bajar dos pisos a una zona que está desierta de coches tengas que dar innumerables vueltas por él y no puedas bajar dos pisos seguidos.
Hay muchos parkings así:

→→→→→→→→→→→→→→→→→↓ Planta 0
↓←←←←←←←←←←←←←←←←← Planta 1
→→→→→→→→→→→→→→→→→↓ Planta 2
↓←←←←←←←←←←←←←←←←← Planta 3

Incluso hay otros que son así:

→→→→→→→→→→→→→→→→→↓ Planta 0
←←←←←←←←←←←←←←←←←←Planta 1
→→→→→→→→→→→→→→→→→↓ Planta 1

←←←←←←←←←←←←←←←←←←Planta 2
→→→→→→→→→→→→→→→→→↓ Planta 2

←←←←←←←←←←←←←←←←←←Planta 3
→→→→→→→→→→→→→→→→→↓ Planta 3
 
las horas jugando o viendo netflix, etc.
Pobrecillo...


Venga Te Quiero GIF by Movistar Plus+
 
Desde esta semana se puede encargar en España una variante más del Model Y. El de batería extendida pero motor trasero con lo que es el que tiene la máxima autonomía a la venta. Hasta ahora la batería extendida sólo estaba disponible en los modelos de doble motor.

1000015616.jpg
 
El modelo nuevo de Tesla me dijeron que hasta 2025 nada. Aunque eso es cero fiable.
 
Imagen estereoscópica, mejor que un solo ojo y mucho peor que un sensor específico... por eso con un sensor eres capaz de medir con mucha mayor precisión que a ojímetro.

La verdad es que no sé por qué usamos cintas métricas, podríamos medir a ojo, como hacían los cromañones.
 
La verdad es que no sé por qué usamos cintas métricas, podríamos medir a ojo, como hacían los cromañones.
Pero los cromañones no tenían 8 ojos y una memoria perfecta.

Imagen estereoscópica, mejor que un solo ojo y mucho peor que un sensor específico... por eso con un sensor eres capaz de medir con mucha mayor precisión que a ojímetro.
Interesante discusión. :juas

Pues mira, yo prácticamente no tengo visión estereoscópica (estrabismo, ojo vago, más graduación en un ojo que en el otro... lo tengo todo :juas) y llevo toda la vida aparcando estupendamente, y está feo que lo diga yo pero aparco de puta madre. :juas

Y además de aparcar sin problemas soy fotógrafo y profesor de dibujo técnico (a cualquier nivel, enseño tanto a gente de bellas artes, como de aeronautica o profesores de bachillerato). Vamos, que tengo claro que mis capacidades visuales y de percepción y compresión espacial están bastante por encima que las de la mayoría de la gente. Y eso que solo uso un ojo para enfocar, imagina si tuviera 8 mirando en todas las direcciones y fuera construyendo una imagen 3D en mi cabeza con lo que voy viendo.

A partir de aquí es todo opinión cuñada. Cuando nosotros aparcamos lo hacemos con la información visual que estamos recibiendo en ese instante (para lo cual la visión estereoscópica es muy útil) y da la sensación de que pensáis que un coche hace lo mismo y no es así. Cuando un Tesla se para junto a un sitio ya tiene hecha la mayoría del trabajo de mapeo del sitio, no es visión con una sola cámara como dices tú, ni siquiera estereoscópica (aunque la visión de una cámara lateral y la visión desde esa misma cámara un segundo más tarde es visión estereoscópica), la visión del coche es con todas las cámaras con las que ha visto el hueco desde que empezó a verlo. Y con eso genera un modelo 3D del sitio. ¿Que es menos preciso que el que haría con sensores? Muy probablemente, pero seguro que es mucho más que suficiente de lo que hace falta para aparcar y desde luego mucho más preciso que la imagen mental que tienes tú al aparcar con tu visión estereoscópica. ¿Y a que a ti con eso te es más que suficiente? Y eso que tú solo miras desde el interior del coche, que el coche tiene las cámaras por fuera.

Imagino que si todavía no son capaces de aparcar es porque están desarrollando y perfeccionando esto, pero el sistema no es tan impreciso como lo estáis poniendo.

Y con todo esto que os he contado va mi novia y se compra esto el otro día:
IMG_20240411_190430_333.jpg


Ahí, dando donde duele. Cuánta crueldad.
 
Última edición:
Arriba Pie