Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Er, donc ça apparaît tout seul ? De nulle part ?
La question était de savoir d'où venaient les 50 demi-images.
Comment 25 devient-il 50 ? (Nous en avons 25 en standard, n'est-ce pas ?).
Et pourquoi, dans ce cas,ne peut-on pas facilement constituer un cadre entier à partir de cela ?
Pourquoi est-il impossible d'inventer un cadre entier ? Pourquoi n'est-ce pas facile ? C'est probablement facile et simple, tout le système est conçu de cette façon. Il y a un flux de signaux entrelacés, il y a le même dessin entrelacé sur l'écran. Pas de problème.
50 demi-images = 25 images divisées en deux.
J'ai écrit plus haut : "Il y a des images où une image entière de la vidéo est affichée, et entre les deux, la moitié d'une image et l'autre moitié de l'autre. Une sorte de transition transparente d'une image à l'autre. Une sorte de transit entrelacé.
Pourquoi est-il impossible d'inventer un cadre entier ? Pourquoi n'est-ce pas facile ? C'est probablement facile et simple, c'est ainsi que tout le système est conçu. Le flux de signaux est entrelacé, le même dessin entrelacé apparaît sur l'écran. Pas de problème.
50 demi-images = 25 images divisées en deux.
J'ai écrit plus haut : "Il y a des images où une image entière de la vidéo est affichée, et entre les deux, la moitié d'une image et l'autre moitié de l'autre. Une sorte de transition transparente d'une image à l'autre. Une sorte de transit entrelacé.
Impossible, car chaque demi-image est différente (maintenant je suis comme un enfant de la maternelle))
Chaque demi-image correspond à un moment différent dans le temps - l'objet en mouvement, dans les 50 demi-images, a un emplacement différent. C'est pourquoi ils ont mis au point une série d'algorithmes pour recréer des images complètes et les réduire à 25 images. Ce faisant, la moitié de l'information visuelle est perdu e. A moins que vous ne convertissiez au même 50fps.
Ainsi, toutes les télévisions (passées et présentes) qui utilisent l'entrelacement sont filmées à 50 images (ou demi-images).
Et tout cela a la fluidité de 50 images, mais pas de 25.
Il en va de même pour les chaînes sportives, elles sont toutes entrelacées - parce que cela fournit une fluidité minimale. Il y a 50 demi-images par seconde, dans le même flux que 25 images complètes.
Non. Ce n'est pas comme ça. Rien n'est jeté. Comme il y en avait 25, il en reste ainsi, seul le même nombre de cadres de transition leur est ajouté, mais déjà dans le moniteur (créé dans le moniteur, pour ainsi dire). Une demi-image vidéo est maintenue à l'écran pendant deux images du moniteur.
Imaginons que les images se trouvent dans le fichier dans le bon ordre : 1, 2, 3, 4... La manière dont ils sont rédigés n'a aucune importance, ce qui compte, c'est la manière dont nous les lisons.
Lire les lignes paires du cadre 1 et envoyer, lire les lignes impaires du cadre 2, envoyer, lire les lignes paires du cadre 2 et envoyer, lire les lignes impaires du cadre 3 et envoyer, lire les lignes paires du cadre 3 et envoyer.
Maintenant dans le moniteur.
Nous avons reçu les lignes paires du cadre 1 et l'avons dessiné. Une nouvelle trame, les lignes paires de la trame 1 sont toujours allumées, mais le processus de réception et d'affichage des lignes impaires de la trame 2 est en cours. Par conséquent, le moniteur a un cadre qui comporte la moitié des lignes du cadre 1 et la moitié des lignes du cadre 2. Dans l'image suivante du moniteur, les lignes impaires (de l'image 2) sont toujours allumées et les lignes paires s'effacent ; nous récupérons les lignes paires de l'image 2 et les affichons sur le moniteur - le moniteur a une image qui consiste en deux moitiés de l'image 2, qui est une image normale. L'image suivante sur le moniteur continue à afficher les lignes paires de l'image 2 et ajoute les lignes impaires de l'image 3 - nous avons une image de transition qui consiste en la moitié de l'image 2 et la moitié de l'image 3. Ensuite, il y a tout le cadre 3. La prochaine image est la moitié de l'image 3 et la moitié de l'image 5. Puis un 4 entier. La moitié d'un 4 et la moitié d'un 5. 5 entiers. Moitié 5 et moitié 6. Entier 6. Demi 6 et 7. 7 entiers...
Euh, donc ça apparaît tout seul ? De nulle part ?
La question était de savoir d'où provenaient les 50 demi-images.
Comment 25 se traduit-il en 50 ? (Après tout, nous avons une norme de 25 ?)
Et pourquoi, dans ce cas,ne peut-on pas facilement constituer un cadre entier à partir de cela ?
d'où le SEKAM soviétique a été copié sur le MESECAM français, il s'agit d'une norme de diffusion TV stupide qui a dans sa structure un ordre PROTOCOLE de transmission du signal analogique - maintenant le mot est PROTOCOLE
les lignes paires sont transmises en premier, puis les lignes impaires contenant des informations vidéo, puis un signal audio retardé et tout cela doit tenir dans 1/50e de seconde, puis un nouveau one.....
cette norme était conforme aux premières caméras vidéo qui capturaient également des informations vidéo à partir du capteur photo dans les chaînes...... c'est le début de l'histoire.... que 50Hz et 2 passages du faisceau du kinéscope ont lancé l'ère de la télévision....
puis les dés étaient jetés, mais la norme était la même.
sur le désentrelacement j'ai dit une demi-journée hier dans ce fil, cet effet se produit lorsque la fréquence de la source vidéo - CAMERA !!! ne correspond pas à la fréquence du récepteur vidéo MAIS cette TV !!! et différentes façons de faire correspondre ces deux appareils, si le jumelage n'a pas été bon, alors vous verrez parfois lagging / jerking ... c'est une compensation pour les cadres manqués
Il existe différentes manières d'apparier, de convertir - traitement numérique et circuits électroniques... Peu importe, l'important est de comprendre que les équipements existants ont des fréquences de traitement des données différentes, les cellules photo dans les caméscopes professionnels tirent des informations d'un capteur à plusieurs MHz, et transmettent ces informations à un flux vidéo, qui se connecte ensuite à l'équipement de diffusion (SECAM analogique, DVB-T2 numérique) qui fonctionne à 50Hz, si vous êtes des ingénieurs malhabiles, des monteurs vidéo, alors vous verrez la distorsion qui en résulte, si cela est fait de manière professionnelle, vous ne devinerez jamais que le matériel vidéo original a été manipulé d'une quelconque manière
toute cette discussion sur les taux de rafraîchissement des moniteurs et 120Hz et... Mais l'accent n'est pas mis sur la fréquence de rafraîchissement, de nombreux facteurs jouent un rôle majeur, comme le temps de réponse des pixels, la balance des noirs, la reproduction des couleurs, le grain... Vous devez comprendre que la vidéo à la télévision est une manipulation !!! Avec des images statiques et si vous essayez assez fort (si fort que vous pétez !) vous ne verrez peut-être pas les distorsions, mais si vous les cherchez fort, vous les verrez... C'est comme ça que la conscience fonctionne...
Je tiens à rappeler que la question initiale était la suivante : "Est-il utile d'augmenter la fréquence de OnTimer() au-delà de 40 millisecondes, si le taux de changement des images humaines est de 24 images par seconde ?".
ce fil est plein de cholivar.
Je ne voulais pas le faire hier, mais j'ai cherché des informations sur Google et j'ai trouvé l'information sur Wiki.
c'est-à-dire au moins 16-18 images donnera un effet d'animation, le même GIF-ki si vous n'êtes pas pointilleux sur la qualité et que la vidéo n'est pas très dynamique, c'est tout à fait "regardable", voici un petit article sur le habrehabre, l'astuce n'est pas dans la fréquence, et le choix des images
https://habr.com/post/251709/
le sujet est un véritable charivari.
Je ne voulais pas hier, mais j'ai googlé certaines informations, le Wiki avait
c'est-à-dire qu'au moins 16-18 images produiront un effet d'animation, les mêmes GIFs, si vous n'êtes pas pointilleux sur la qualité et que la vidéo n'est pas très dynamique, c'est tout à fait "regardable", voici un petit article sur l'habrehabre, l'astuce n'est pas dans la fréquence, mais dans le choix des images
https://habr.com/post/251709/
Il y a vraiment beaucoup de confusion ici.
Apparemment, environ 24 images par seconde est le nombre maximum d'images que le cerveau peut percevoir et traiter. L'œil, sans référence au cerveau, (comme mentionné ici) peut "photographier" plus d'images par seconde. Mais quelle différence cela fait-il si le cerveau ne peut pas toutes les traiter ?
J'ai donc suggéré à ceux qui argumentent de faire un simple script et de vérifier à quelle fréquence d'images le changement de qualité de la fluidité et du naturel de l'image cessera d'être perceptible.
Il me semble également qu'il y a une confusion entre la qualité de l'image - le naturel, la saturation des couleurs, l'absence de scintillement, le grain, etc... et la fréquence d'images, qui n'affecte que la perception du mouvement dans l'image.
Je pense aussi qu'il y a une confusion sur la qualité de l'image - naturel, saturation des couleurs, absence de scintillement, grain, etc... et la fréquence d'images, qui n'affecte que la perception du mouvement dans l'image.
Oui, c'est exactement le point, et tout test sera une évaluation subjective, d'autant plus que tout le monde a des moniteurs différents, et le script sera probablement toujours lié à la performance du PC et du modèle d'événement de MT et Windows
les codecs dans Windows devraient avoir la plus haute priorité et travailler directement avec les pilotes de cartes vidéo (enfin, presque), et dans MT il peut y avoir quelques ralentissements, mais imho, tout cela est subjectif
Oui, c'est exactement le point, et tout test sera une évaluation subjective, d'autant plus que tout le monde a des moniteurs différents, et le script sera probablement encore lié à la performance du PC et le modèle d'événement de MT et Windows
les codecs dans Windows devraient avoir la plus haute priorité et travailler directement avec les pilotes de carte vidéo (enfin, presque), et dans MT peut être lags, mais imho, tout cela est subjectif
Le script est très simple. Les performances du PC ne changent rien. Il y aura peu de place pour la subjectivité ici, précisément en raison de la simplicité du test. Juste une figure sur un fond noir et un mouvement d'un point à un autre (1000 pixels) par seconde. L'idée est qu'en augmentant la fréquence d'images d'une unité, nous augmenterons progressivement la fluidité de l'objet, mais qu'à un certain point, nous cesserons de remarquer le changement de fluidité. La figure à laquelle nous nous arrêtons sera la limite de la perception. Il se peut que ce soit plus que 24 images, mais je ne suis pas sûr de beaucoup.
Vous êtes un drôle de causeur. Comme le dit le dicton, "Qui parle de quoi, mais... sur les bains publics."
Ce n'est pas ce dont nous parlons ici...
Je vous ai donné une analogie, parce que tout le monde est intelligent, mais personne ne veut apprendre et lire des arguments scientifiques.
D'ailleurs, personne ne les donne.
Je vous ai donné l'analogie parce que, tout le monde fait le malin, mais personne ne veut apprendre et lire les arguments scientifiques.
D'ailleurs, personne ne les donne.
Vous savez, vous donnez l'impression d'être une personne très intelligente. J'ai aimé vos arguments.
Cependant, je ne suis pas d'accord pour dire que "tout le monde ici fait preuve d'intelligence". Certains participants à la discussion semblent être très préparés sur le sujet.