Si c'est cela les vidéos de chats
https://youtube.com/shorts/pqsd3IGzCDU? ... syjdIr2wF-Il y a quand-même plein de trucs qui collent pas :
Le front de la femme lisse et sans texture
Le dessous des oreilles du chat au contraire floutés comme s'il y avait deux focales locales différentes de celle de l'image principale
La difficulté à détecter d'où provient la lumière, qui semble à la fois directionnelle et ambiante, avec de forts ombrages malgré la clarté, l'impression qu'elle vient du dessous sous le traverse du plafond à droite et du dessus pour la femme
Le mouvement irréaliste du chat, qui s'agrandit bizarrement et sans fatigue
Le gateau est bizarre aussi
Puis énorme glitch entre les cheveux de la meuf et le chambranle de la porte, qui flotte. Les contours entre la tête du chat et l'environnement en arrière plan ne sont pas stabilisés. Les reliefs inférieurs des portes de placard qui se font la malle quand le chat passe devant
On sent que ces vidéo demandent encore une puissance de calcul trop grande pour le matériel, qui n'atteint pas encore la vraie 3D, il n'y a pas de scène avec un repère normalisé, ou des meshes vectoriels derrière les textures pour les fixer (bonjour pour entraîner une IA à comprendre qu'il y a en même temps le pur espace et des trucs dedans, finalement Kant et Husserl avaient bien cerné le truc avec leur phénoménologie transcendantale et ses inconditionnés, physiques mais sans relèver d'une technologie pour autant).
Le plus troublant est en fait la voix, l'intonation et l'écho qui eux sont réalistes (d'autant qu'elle monte dans les aigus constamment, du coup moins de modulations ou de fluctuations à calculer). Visionner l'image sans le son doit aider à détecter le deep fake.
Les IA arrivent à transformer facilement des données discrètes en représentation continue (à interpoler) mais ont du mal à faire l'inverse (échantillonner, voire calculer rapidement une moyenne). On peut encore les niquer, c'est pas complètement foutu.