Question Quel sens cela fait-il que la "netteté" soit ajustable sur un moniteur?


Les moniteurs modernes ont souvent un réglage "netteté".

Mais je ne comprends pas vraiment comment il est logique qu'un tel environnement existe.

Le logiciel demande au moniteur d'afficher un modèle particulier de valeurs RVB 32 bits, n'est-ce pas?
c'est-à-dire que le système d'exploitation peut demander au moniteur chaque image pour afficher une image bitmap spécifique 1920 × 1080 × 32.

Mais ajuster la "netteté" signifie que les valeurs des pixels proches s’affectent, ce qui semblerait impliquer que l’entrée n’est plus fidèlement représentée ... ce qui signifie qu’elle n’affiche plus ce qui est demandé, ce qui ne rend pas sens. Je ne vois donc pas où cela laisse une place logique pour le réglage de la netteté.

D'où vient exactement le degré de liberté pour ajuster la netteté?


83
2018-01-04 21:35


origine


C'est drôle, la dernière fois que j'ai vu de la netteté sur un tube cathodique. À l'époque, vous pouviez contrôler la synchronisation entre les impulsions rouges, vertes et bleues pour les aligner correctement. Si c'était un peu trop rapide ou trop lent, les trois phosphores seraient en quelque sorte maculés. Si vous les aligniez correctement, l'image était aussi nette que possible. Évidemment, cela ne s'applique pas du tout aux écrans modernes. - Todd Wilcox
Vous apportez beaucoup de réponses qu'ils ne répondent pas à votre question, cela pourrait aider si vous avez dit pourquoi ils ne répondent pas à la question. Il convient de noter que la loi n’exige pas que le moniteur affiche ce que le logiciel lui demande. Il pourrait par exemple changer tous les trois pixels en vert, ou les inverser. Donc, la raison pour laquelle le moniteur peut "fuzzifier" les images, c'est parce que suffisamment de clients le souhaitaient, cela pourrait tout aussi bien étirer l'image, mais personne ne le souhaitait, alors ce n'est pas le cas. Il n'y a donc que deux types de réponses: comment cela se fait-il techniquement ou pourquoi les gens veulent-ils cela? - Richard Tingle
@ RichardTingle: Je suppose que la réponse à "pourquoi les gens veulent ça" pourrait potentiellement répondre à ma question, oui. Bien que j'essaie plus de comprendre quel sens cela fait d'un point de vue technique. Pour vous donner un exemple, c'est en fait logique pour moi d'avoir des paramètres de netteté pour afficher les photos RAW, car la correspondance entre les données du capteur et les pixels est intrinsèquement un problème sous-déterminé (c'est-à-dire sans solution unique) avec des degrés de liberté Mais les bitmaps sont pixels, alors où est la place pour ajuster des choses comme la "netteté"? - Mehrdad
@ToddWilcox: Pour ce que cela vaut, au moins les moniteurs HP EliteDisplay (LCD) ont un réglage "Sharpness", et cela fonctionne même avec une entrée numérique (c'est-à-dire pas VGA). - sleske
J'ajouterais que j'ai dû ajuster "Netteté" pour compenser les utilisateurs qui ont des lunettes ou des contacts dans certains cas. - PhasedOut


Réponses:


Par https://www.cnet.com/uk/how-to/turn-down-your-tv-sharpness-control/ , la "netteté" sur un écran LCD fait partie du post-traitement.

Même en laissant de côté la mise à l'échelle / le suréchantillonnage (par exemple, si vous essayez d'afficher un signal SD sur un moniteur HD) et la complexité de l'étalonnage des couleurs, le moniteur n'affiche pas toujours l'image telle qu'elle est donnée. C'est un effet secondaire regrettable du marketing.

Les fabricants de moniteurs aiment distinguer leurs produits des autres produits. De leur point de vue, si vous transmettez le même signal à leur moniteur et à un concurrent moins cher, et que cela semble identique, mal. Ils veulent que vous préfériez leur moniteur. Il y a donc un tas de trucs; Habituellement, la luminosité et le contraste sortent de la boîte au-delà de ce qui est sensible. La "netteté" est une autre astuce. Comment pouvez-vous rendre votre image plus nette qu'un concurrent qui affiche exactement la photo envoyée? Tricher.

Le filtre "netteté" est effectivement celui utilisé dans Photoshop et les programmes similaires. Il améliore les bords afin qu'ils attirent l'œil.


75
2018-01-05 10:05



+1 merci, je pense que vous êtes sur le point de répondre au cœur de ma question! D'après votre réponse, il semblerait que la réponse directe serait "non, cela n'a aucun sens scientifique, mais ils s'en fichent et le font de toute façon parce que cela aide à la commercialisation". - Mehrdad
La plupart des écrans LCD que j'ai vus ne permettent de changer la netteté des signaux analogiques, ce qui est parfaitement logique. Connectez l'écran via DVI / HDMI, et vous n'obtenez aucun contrôle de netteté (en fait, vous perdez la plupart des commandes de signal, car elles n'ont vraiment de sens que pour des signaux non parfaits). Il est également courant sur les écrans LCD qui sont des moniteurs / téléviseurs hybrides - puisque les téléviseurs ont ces caractéristiques (pour le meilleur ou pour le pire), il en va de même pour conserver la parité des fonctions. Si vous pensez que c'est juste marketing inutile, essayez de regarder un VHS sur un écran qui suppose un signal pixel-perfect :) - Luaan
Ce n'est pas que du marketing. Les "pixels" ne sont pas en ligne droite et ne sont pas des unités uniques comme le suggère le nom pixel. - HackSlash
Le moniteur ne peut jamais afficher l'image telle qu'elle est donnée et ce n'est pas à cause de la fabrication. Les couleurs, la luminosité, les noirs et les résolutions varient d'un moniteur à l'autre. Un signal numérique pourrait dire «pixel lumineux x à une luminosité de 50%». Quelle est la luminosité de 50%? Ou qu'est-ce que 100 sur 200 de luminosité? Tout dépend du matériel et de la programmation du moniteur. Quel est le bleu? ou jaune? C'est pourquoi il y a des ajustements pour commencer. Ainsi, un utilisateur peut donner à l’image l’impression qu’elle devrait avoir l’air ou l’intérêt. L'idée qu'un signal soit représenté à 100% avec précision sur n'importe quel moniteur est ridicule. - Appleoddity
Certains commentaires sont techniquement corrects (comme "Le moniteur ne peut jamais afficher l’image telle qu’elle est donnée"), mais la réponse est correcte: ce qui se passe est le filtrage (et ce pour des raisons de tromperie). De plus, il filtre avec quelques coefficients négatifs, ce qui introduit intrinsèquement des artefacts hideux; une fois que vous vous en rendez compte, vous ne pourrez jamais le revoir. :-) - R..


Question originale: D'où vient exactement le degré de liberté pour ajuster la netteté?

La netteté est directement liée au type de signal et au contenu que vous consultez. Les films ont généralement une meilleure apparence lorsque la netteté est diminuée et que les pixels peuvent flouter ensemble. D'un autre côté, un écran d'ordinateur nécessiterait une netteté élevée pour un texte clair et des images nettes. Les jeux vidéo sont un autre exemple où une meilleure netteté est meilleure. Des signaux de télévision de faible qualité peuvent également être améliorés avec des commandes de netteté.

Étant donné que les moniteurs peuvent être utilisés pour afficher un écran d'ordinateur, un film ou pratiquement n'importe quelle source vidéo, la netteté reste un paramètre utile.

https://www.crutchfield.com/S-biPv1sIlyXG/learn/learningcenter/home/tv_signalquality.html

EDIT: Le PO a indiqué dans les commentaires que cela ne répond pas à la question.

OP: Où dans le problème y a-t-il de la place pour tout ajustement? Comme si   Je vous dis x = 1 et y = 2, puis dites "oh, et je veux x - y = 3".   Ça n'a aucun sens.

Le processus consistant à convertir une image / vidéo en direct en signaux électriques / analogiques / numériques, à transmettre sur un support quelconque et à recréer cette image sur un périphérique d'affichage n'est JAMAIS un processus 1 à 1.

Le bruit du signal, la perte de compression, les variations de fabrication et d'équipement, le type de câblage / signal et d'autres facteurs entrent en jeu. Tous les ajustements sur un moniteur sont conçus pour fonctionner ensemble afin de fournir à l'utilisateur final une expérience de visualisation de la plus haute qualité, en fonction de l'utilisateur final. L'interprétation est entièrement subjective.

OP: Cette réponse ne répond pas à la question de savoir pourquoi le spectateur   ajuster la netteté lorsque celle-ci est déjà définie par le contenu   créateur (que ce soit Spielberg ou Excel).

Si nous devons suivre cette logique, alors pourquoi les moniteurs ont-ils besoin ou ont-ils des ajustements du tout? La réponse est que ce que nous voyons à l'écran n'est pas une représentation précise à 100% des données d'origine.


66
2018-01-04 22:00



Cela ne répond pas du tout à ma question ... Je ne demandais pas ce qu'est la netteté. - Mehrdad
@Martijn: Ce n'était pas ma question ... - Mehrdad
@ Mehrdad Pouvez-vous reformuler votre question, alors? Il semble que plusieurs personnes (et leurs électeurs) ne le comprennent pas comme vous. Je l'ai également pris comme "pourquoi les LCD supportent-ils la netteté?" (ce qui est répondu par celui-ci), ou peut-être "comment les LCD supportent-ils la netteté?" (qui est répondu par Aganju). Si votre question n'est ni l'une ni l'autre, vous devriez la clarifier. - Angew
@ Mehrdad Je l'ai trouvé plus proche de "comment les écrans LCD supportent la netteté", ce qui a été expliqué par Aganju mais toujours rejeté par vous. - Angew
Le câble et le signal sur les moniteurs modernes sont numériques. Cela permet d'obtenir une transmission parfaite ou de mauvaises données. Il n'y a pas de perte ou de dégradation du signal possible comme dans un signal analogique. À l'intérieur du moniteur, le signal numérique est converti en quelque chose que le panneau comprend et qui est généralement numérique maintenant. La seule partie analogique concerne les niveaux de luminosité de chaque élément et ceux-ci sont pilotés par une valeur numérique. - HackSlash


Vous avez raison de dire que pour une reproduction parfaite de l’entrée, le moniteur doit simplement présenter chaque pixel au fur et à mesure de sa livraison.

Cependant, vos yeux (et votre cerveau) ne voient pas les pixels comme des entités séparées, ils voient une image formée de pixels. Selon ce que cela représente, une image est «meilleure» (plus attrayante) si les paramètres sont intentionnellement «falsifiés».

La netteté augmente généralement le contraste des bords de changement de couleur. Par exemple, une lettre dans ce texte est représentée par des lignes de pixels, une ligne peut sembler (simplifiée) 2-2-2-2-7-7-7-2-2- 2-2 où 2 est gris clair et 7 gris foncé. L'augmentation de la «netteté» augmente la diminution de la luminosité sur le bord, donc les 2 derniers avant le premier 7 deviennent encore plus clairs (= 1), et les 7 premiers après les 2 derniers deviennent encore plus foncés (= 8). Répétez pour l'autre bord, et vous obtenez 2-2-2-1-8-7-8-1-2-2-2. Cela vous semblera beaucoup plus net.
Ceci est fait dans les deux dimensions, et un peu plus sophistiqué, mais cela devrait vous expliquer l'idée de base.

Edit: Je pensais que c'était clair dans ma réponse, mais l'OP prétend qu'il ne l'a pas compris:
OP Question: 'quel sens cela fait' -> Réponse: il semble plus net à votre cerveau.
Beaucoup de gens le veulent; si vous ne vous en souciez pas, ne l'utilisez pas.


35
2018-01-04 22:30



@ Mehrdad Alors quoi est ta question? Vous avez obtenu une réponse pour "quel sens [de la facilité d'utilisation] fait-il pour que la netteté soit ajustable sur un moniteur" d'Appleoddity. Vous avez obtenu une réponse à "quel sens [de la technologie] fait-il pour que la netteté soit ajustable sur un moniteur" d'Aganju. Si aucune de ces questions n'est votre question, vous devez la réécrire pour que la question posée corresponde à votre question. - Birjolaxew
@Mehrdad D'après vos commentaires, votre question semble être "pourquoi les moniteurs sont-ils autorisés à changer de netteté lorsque l'ordinateur leur indique déjà exactement ce qu'ils doivent afficher", ce à quoi Appleoddity répond. - Birjolaxew
Cette réponse est fonctionnellement identique à la réponse donnée par pjc50. Les deux sont faux. - HackSlash


La réponse est qu'un pixel n'est pas ce que vous pensez. Il n'y a pas de corrélation de 1 à 1 entre les pixels numériques et les pixels physiques en raison du "rendu de sous-pixels". La manière dont les couleurs sont affichées est différente dans chaque moniteur, mais la plupart des moniteurs LCD ont des éléments RED, GREEN et BLUE distincts disposés en triangle. Certains ont en outre un pixel blanc faisant un quadricarte par "pixel".

enter image description here

Ainsi, toutes les mises en page ne sont pas égales. Chaque disposition particulière peut avoir une "résolution visuelle" différente, la limite de la fonction de transfert de modulation (MTFL), définie comme le plus grand nombre de lignes noires et blanches pouvant être rendues simultanément sans alias chromatique visible.

Les pilotes de moniteur permettent aux moteurs de rendu d'ajuster correctement leurs matrices de transformation de géométrie afin de calculer correctement les valeurs de chaque plan de couleur et de tirer le meilleur profit du rendu de sous-pixel avec le crénelage chromatique le plus faible.

La "netteté" de votre moniteur réduit l'algorithme de fusion naturelle utilisé pour que les lignes apparaissent contiguës lorsqu'elles ne le sont pas. En augmentant la netteté, vous augmentez le crénelage chromatique tout en produisant des lignes plus nettes. Réduire la netteté vous donnera un meilleur mélange des couleurs et lira les lignes qui tombent entre le pas de point du sous-pixel.

Pour plus d'informations, consultez cet article: https://en.wikipedia.org/wiki/Subpixel_rendering


30
2018-01-05 16:32





Vous avez absolument raison de dire que la définition de la netteté sur votre moniteur "déforme" quelque peu l'image des données précises envoyées par l'ordinateur (ou tout ce qui est attaché à l'autre extrémité du câble vidéo). Cependant, cela permet à l'utilisateur d'améliorer son expérience visuelle si la netteté des données précises envoyées par les pixels ne correspond pas à la netteté souhaitée dans l'image affichée.

Le moniteur ne fait donc pas cela:

  1. Recevoir un bitmap du câble
  2. Rendu bitmap
  3. Goto 1.

mais ça:

  1. Recevoir un bitmap du câble
  2. Modifier le bitmap en fonction des préférences de l'utilisateur
  3. Rendu bitmap
  4. Goto 1.

Ainsi, le fabricant du moniteur ajoute explicitement le degré de liberté pour ajuster la netteté afin d'améliorer l'expérience utilisateur.


17
2018-01-05 10:02



Le commentaire de slebetman sur sa propre réponse semble le confirmer comme une demande de la part de l'utilisateur: «Je viens de faire un ajustement de la netteté sur l'écran LCD au cas où il y aurait des écrans LCD. ils ont d'abord été introduits " - LVDV


Le logiciel demande au moniteur d'afficher un modèle particulier de valeurs RVB 32 bits, n'est-ce pas?   c'est-à-dire que le système d'exploitation peut demander au moniteur chaque image pour afficher une image bitmap spécifique 1920 × 1080 × 32.

Ce n'est pas comme ça que VGA fonctionne. Au niveau du moniteur, il n'y a pas de pixels du tout.

Voici comment les affichages fonctionnaient traditionnellement avant l’âge du LCD:

  1. Le logiciel demande au pilote de périphérique d'afficher une image bitmap

  2. Le pilote de périphérique divise l'image en trois formes d'onde pour R, G et B. C'est vrai, les formes d'onde! Exactement comme les formes d'onde audio. Maintenant, ces formes d'ondes ont un format spécifique car, lorsque l'audio est 1d, les images sont 2d.

  3. Le signal analogique des lignes sur l'écran est envoyé au moniteur.

Le moniteur ne voit jamais un pixel, il ne voit que les lignes.

  1. Le moniteur crache des électrons se déplaçant à une vitesse proche de la lumière de trois canons à électrons et le faisceau est dévié en contrôlant le groupe d'électroaimants, ce qui les amène à peindre l'écran entier.

Voici où le contrôle de la netteté entre en jeu.

En raison des tolérances de fabrication, les faisceaux d'électrons ne convergent presque jamais correctement et produisent des images floues directement sur la chaîne de montage. Dans les temps anciens, c'est à vous, la personne qui a acheté le moniteur, de régler la netteté chez vous. Plus tard, plus anciens de ces anciens écrans ont un processus d'ajustement automatique en usine, mais le réglage de la netteté doit encore être intégré pour que le processus fonctionne.

La réponse est donc très simple. Le réglage de la netteté est là pour que l’image sur les écrans soit nette.


12
2018-01-05 09:16



Je viens de faire un ajustement de la netteté de l'écran LCD au cas où il y aurait des écrans LCD. Ce que j'ai trouvé, ce sont des questions hilarantes de la part de personnes qui souhaitaient ajuster la netteté sur les écrans LCD lors de leur introduction. - slebetman
L'écran LCD que j'utilise a un paramètre de netteté, ce qui m'a fait poser cette question. Le bit sur les écrans CRT est sympa mais malheureusement ne semble pas pertinent. - Mehrdad
@ Mehrdad Est-ce un écran LCD VGA ou un DVI / HDMI pur? - slebetman
J'utilise VGA, mais je crois qu'il prend également en charge DVI. Il n’est pas clair pour moi ce que l’utilisation des formes d’ondes plutôt que des signaux numériques a à voir avec le fait de laisser l’utilisateur ajuster la netteté. (?) - Mehrdad
Il n'y a pas de pixels dans les formes d'onde, seulement des lignes; une certaine quantité de flou est inévitable lorsque le signal est transmis. Habituellement, ce n'est pas visible, mais en HD, je peux généralement faire la différence entre un signal VGA et un signal HDMI / DVI / DP. - pjc50


Sur un téléviseur (numérique), la netteté contrôle un filtre de mise au point qui améliore les contours. Cela n'est pas très utile sur un écran s'il est utilisé comme moniteur d'ordinateur.

Au siècle dernier, sur un moniteur à tube cathodique analogique haut de gamme, la netteté pouvait contrôler la tension de focalisation du canon à électrons. Cela affecte la taille du spot avec lequel l'image est dessinée. Définissez la taille du point trop petite (trop nette) et la structure de la ligne devient trop visible. Il peut également y avoir des interférences "Moiré" gênantes avec la structure du masque perforé. Le réglage optimal dépend de la résolution (taux d'échantillonnage) de l'image, car de nombreux moniteurs CRT sont capables de résolutions multiples sans mise à l'échelle (multi-synchronisation). Réglez-le juste assez net.

Les téléviseurs CRT haut de gamme ont une modulation de vitesse de balayage, où le faisceau de balayage est ralenti autour d'un bord vertical, ainsi que des filtres de pointage horizontaux et verticaux et peut-être un circuit d'amélioration des transitoires horizontaux. La netteté peut avoir contrôlé tout ou partie.

L'affûtage en général améliore les contours en rendant le côté sombre du bord plus sombre, le côté lumineux plus clair et le milieu du bord plus raide. Un filtre de correction typique calcule un différentiel de second ordre, par exemple en traitement numérique, par ex. (-1,2, -1). Ajoutez une petite quantité de ce pic au signal d'entrée. Si vous supprimez les dépassements, cela se réduit à une "amélioration transitoire".

Sur certains appareils numériques, la netteté d'un détartreur peut être contrôlée, par ex. dans mes récepteurs de télévision par satellite numérique. Cela définit la bande passante des filtres polyphasés d'un scaler, qui convertit une résolution source en résolution d'affichage. La mise à l'échelle ne peut pas être parfaite, c'est toujours un compromis entre les artefacts et la netteté. Réglez-le trop net et les contours et aliasing gênants sont visibles.

Cela peut être la réponse la plus plausible à votre question, mais uniquement si le moniteur est à l’échelle. Cela ne ferait rien pour un mode 1: 1 non calibré.

Source: 31 ans d'expérience dans le traitement du signal pour la télévision.


5
2018-01-05 13:30



Ce post est 100% correct pour les technologies analogiques comme les CRT. L'OP s'interroge sur la netteté sur un écran LCD entièrement numérique. Il pense, comme vous, qu '"il ne ferait rien en mode 1: 1 non calibré" mais en fait il le fait. Voir ma réponse sur le rendu des sous-pixels dans les écrans LCD. - HackSlash
Je ne suis au courant d'aucun moniteur appliquant le rendu de sous-pixels, sauf peut-être un écran portable Pentile. Il est généralement effectué par le logiciel de rendu de polices ClearView sur le PC. - StessenJ
Cette thèse traite très bien le rendu des sous-pixels, dans Ch.3: pure.tue.nl/ws/files/1861238/200612229.pdf . Le rendu du sous-pixel concerne essentiellement une erreur de convergence des couleurs de +/- 1/3 pixel. Les CRT n'en ont pas besoin, cela se fait implicitement par le masque d'ombre (échantillonnage). - StessenJ
Dans cet article, le processus d’assemblage des sous-pixels en un "pixel" cohérent est appelé "reconstruction spatiale". Ils appellent le "pixel" une "ouverture" quand ils parlent des sous-pixels travaillant ensemble. Les sous-pixels sont des phosphores de couleur et sont clairement indiqués à la page 28. Ces phosphores ne sont pas toujours utilisés en clair. Vous pouvez utiliser le phosphore rouge d'un jeu ou d'un ensemble adjacent en fonction de la "netteté" des lignes. - HackSlash


Cela n'a pas de sens. Ou du moins pas sur la plupart des moniteurs LCD. Vous voudrez presque toujours que votre "netteté" soit réglée sur 0, en fonction du moniteur ou de la télévision (certains flouteront le signal à 0, donc le vrai réglage non filtré pourrait se situer quelque part au milieu), sinon amélioration des contours filtre, ce qui rend le côté le plus sombre d'un bord plus sombre et le côté plus clair plus léger. Cela est particulièrement visible sur les dessins animés et le texte. Votre kilométrage peut varier, mais je pense que cela semble mauvais dans presque tous les cas.

C'est un filtre irréversible avec perte que vous ne voudrez probablement pas activer. Votre ordinateur envoie des données parfaites en pixels, de sorte que les filtres de «netteté» et de flou sont généralement indésirables.

Notez également que le filtre / réglage "netteté" est impropre. Il est impossible de rendre une image plus nette (c'est-à-dire plus détaillée), mais moins détaillée. La seule façon d'obtenir une image plus nette est d'utiliser une image source de définition supérieure.


4
2018-01-05 18:54





Les paramètres de netteté existent sur les écrans LCD car les fabricants pensent que les effets numériques vont vendre plus de moniteurs et de téléviseurs. Plutôt que de représenter fidèlement l’entrée de l’ordinateur, le fabricant offre à l’utilisateur des options pour modifier l’image en fonction de ses goûts personnels, quelle que soit la pauvreté de ces goûts.

"Netteté" est utile pour les signaux analogiques (comme VGA) et pour les écrans CRT, où le signal est représenté par des signaux à un moment donné. Comme l’analogique a tendance à être imprécis, les paramètres de netteté permettent d’étalonner les tolérances et de compenser les imperfections de la sortie de l’affichage analogique et de la transmission du signal.

La netteté doit être sans importance sur les écrans LCD utilisant des sources de données DVI, HDMI et autres sources de données «pixel-perfect» avec une résolution de résolution 1: 1. Oui, la netteté déforme l'image dans ce scénario. Les affichages dans les magasins de boîtes ont souvent une netteté et d'autres filtres numériques poussés à l'extrême pour paraître plus spectaculaires que les écrans environnants. Certains consommateurs pourraient en fait vouloir ces effets parce qu'ils se sont habitués aux effets des filtres ou parce qu'ils essaient de compenser un écran LCD de mauvaise qualité qui semble mal à la vue en sortie native. La netteté peut également être pertinente lors de l'utilisation d'un signal numérique qui doit être redimensionné car la source et l'affichage ont des résolutions différentes.

Dans l'ensemble, vous souhaiterez probablement que la netteté soit réglée sur Off ou sur 0 sur un écran LCD moderne avec un signal numérique 1: 1.

http://hifi-writer.com/wpblog/?page_id=3517 et https://forums.anandtech.com/threads/why-does-an-lcd-tv-with-hdmi-input-need-a-sharpness-control.2080809/


4
2018-01-05 20:57





De nombreux moniteurs peuvent accepter un signal vidéo qui n’a pas la même résolution que le panneau et essayer de le redimensionner comme il convient. Si un moniteur de 1280 pixels de large est appelé à afficher une image de 1024 pixels de large et que le matériau source est constitué de bandes noires et blanches d'un pixel de largeur, l'affichage affichera probablement un motif répétitif de 5 pixels. Sur une échelle de 0 à 4, le motif serait probablement 03214. Si les bandes noires et blanches de l'original sont "significatives", il peut être utile de les afficher comme ci-dessus. D'autre part, le motif répétitif de 5 pixels serait une distraction qui n'est pas présente dans l'original. L'ajout de flou à l'image réduirait les effets d'alias de la mise à l'échelle.


4
2018-01-06 04:25