Hemsida » hur » Varför är vertikal upplösning övervaka upplösningen så ofta en multipel av 360?

    Varför är vertikal upplösning övervaka upplösningen så ofta en multipel av 360?

    Starka på en lista över bildskärmslösningar tillräckligt länge och du kanske märker ett mönster: många av de vertikala upplösningarna, särskilt de som spelar eller multimedia visar, är multiplar av 360 (720, 1080, 1440 osv.) Men varför är exakt det här fall? Är det godtyckligt eller finns det något mer på jobbet?

    Dagens Question & Answer-session kommer till oss med tillstånd av SuperUser-en indelning av Stack Exchange, en community-driven gruppering av Q & A-webbplatser.

    Frågan

    SuperUser-läsaren Trojandestroy har nyligen märkt något om sitt visningsgränssnitt och behöver svar:

    YouTube har nyligen lagt till 1440p-funktionalitet, och för första gången insåg jag att alla (mest?) Vertikala upplösningar är multiplar av 360.

    Är detta bara för att den minsta gemensamma upplösningen är 480 × 360, och det är bekväm att använda multiplar? (Det tvivlar inte på att multiplar är lämpliga.) Och / eller var den första uppspelningsbara / lämpliga storleken, så hårdvara (TV, bildskärmar, etc.) växte med 360 i åtanke?

    Tager det vidare, varför inte ha en fyrkantig upplösning? Eller något ovanligt? (Förutsatt att det är vanligt att det är synligt). Är det bara en glädjande ögonläge?

    Så varför är skärmen en multipel av 360?

    Svaret

    SuperUser-bidragare User26129 erbjuder oss inte bara ett svar på varför det numeriska mönstret existerar men en historia av skärmdesignen i processen:

    Okej, det finns ett par frågor och många faktorer här. Upplösningar är ett riktigt intressant område för marknadsföring av psykooptik.

    Först och främst varför de vertikala upplösningarna på youtube multiplar på 360. Detta är förstås bara godtyckligt, det finns ingen riktig anledning till att det här är fallet. Anledningen är att upplösning här inte är den begränsande faktorn för Youtube-videor - bandbredd är. Youtube måste omkoda varje video som laddas upp ett par gånger och försöker använda så små omkodningsformat / biträtter / upplösningar som möjligt för att täcka alla olika användningsfall. För låg-mobil-enheter har de 360 ​​× 240, för högre res mobil finns 480p, och för datorgruppen finns 360p för 2xISDN / multiuser fasta telefoner, 720p för DSL och 1080p för högre hastighet internet. Under ett tag fanns det några andra codecs än h.264, men dessa sakta fasas ut med h.264 som väsentligen "vann" formatkriget och alla datorer är utrustade med hårdvarukodikor för detta.

    Nu finns det också några intressanta psykooptiker som händer. Som sagt: resolution är inte allting. 720p med riktigt stark komprimering kan och kommer att se sämre än 240p vid en mycket hög bitrate. Men på andra sidan spektret: att kasta fler bitar vid en viss upplösning gör det inte magiskt bättre än någon punkt. Det finns ett optimalt här, vilket givetvis beror på både upplösning och codec. I allmänhet: det optimala bithastigheten är faktiskt proportionell mot upplösningen.

    Så nästa fråga är: Vilken typ av upplösningssteg är vettigt? Uppenbarligen behöver människor en 2x ökning i upplösning för att verkligen se (och föredra) en markant skillnad. Något mindre än det och många människor kommer helt enkelt inte att bry sig om de högre bithastigheterna, de skulle hellre använda sin bandbredd för andra saker. Detta har undersökts ganska länge sedan och är den stora anledningen till att vi gick från 720 × 576 (415 kpix) till 1280 × 720 (922 kpix), och sedan igen från 1280 × 720 till 1920 × 1080 (2 MP). Stuff däremellan är inte ett lönsamt optimeringsmål. Och igen är 1440P ca 3,7 MP, en annan ~ 2x ökning över HD. Du kommer se en skillnad där. 4K är nästa steg efter det.

    Nästa upp är det magiska antalet 360 vertikala pixlar. Faktum är att det magiska talet är 120 eller 128. Alla upplösningar är en typ av multipel av 120 pixlar idag, tillbaka på dagen som de brukade vara multiplar av 128. Detta är något som just växte ut ur LCD-panelindustrin. LCD-paneler använder det som kallas linjedrivrutiner, små chips som sitter på sidorna på din LCD-skärm som styr hur ljus varje subpixel är. Eftersom historiskt sett, av skäl som jag inte riktigt vet säkert, förmodligen minnesbegränsningar, existerade dessa flera 128 eller flera 120-upplösningar, branschstandardlinjedrivrutinerna blev drivrutiner med 360 linjära utgångar (1 per subpixel) . Om du skulle riva ner din 1920 × 1080 skärm skulle jag lägga pengar på att det finns 16 linjekörare på toppen / botten och 9 på ena sidan. Åh hej, det är 16: 9. Gissa hur uppenbart att beslutsvalet var tillbaka när 16: 9 var "uppfunnit".

    Då är det fråga om bildförhållande. Det här är verkligen ett helt annat fält av psykologi, men det pekar på: historiskt sett har människor trott och mätt att vi har en slags världsomspännande bildskärm. Naturligtvis trodde människor att den mest naturliga representationen av data på en skärm skulle vara i storskärmsvy, och det var här den stora anamorfiska revolutionen från 60-talet kom ifrån när filmer sköts i allt större aspekter.

    Sedan dess har denna typ av kunskap raffinerats och mestadels debunked. Ja, vi har en vidvinkel, men det område där vi faktiskt kan se skarpt - mitt i vår vision - är ganska rund. Lite elliptisk och squashed, men inte riktigt mer än ca 4: 3 eller 3: 2. Så för detaljerad visning, till exempel för att läsa text på en skärm, kan du utnyttja det mesta av din detaljvision genom att använda en nästan fyrkantig skärm, lite som skärmarna fram till mitten av 2000-talet.

    Men igen är det inte hur marknadsföring tog det. Datorer i gamla dagar användes mestadels för produktivitet och detaljerat arbete, men eftersom de kommoditerade och som datorn som mediaförbrukningsanordning utvecklades, använde människor inte nödvändigtvis sin dator för arbete för det mesta. De använde den för att titta på mediainnehåll: filmer, tv-serier och foton. Och för den typen av visning får du den mest "nedsänkningsfaktorn" om skärmen fyller så mycket av din vision (inklusive din perifer vision) som möjligt. Vilket betyder widescreen.

    Men det finns fortfarande mer marknadsföring. När detaljarbete var fortfarande en viktig faktor, brydde sig folk om upplösning. Så många pixlar som möjligt på skärmen. SGI sålde nästan 4K CRTs! Det optimala sättet att få maximalt antal pixlar från ett glasunderlag är att klippa det så kvadratiskt som möjligt. 1: 1 eller 4: 3 skärmar har flest pixlar per diagonal tum. Men med att skärmarna blev mer förbrukade blev tum-storlek viktigare, inte mängden pixlar. Och det här är ett helt annat optimeringsmål. För att få de flesta diagonala tummen ur ett substrat vill du göra skärmen så bred som möjligt. Först fick vi 16:10, då 16: 9 och det har varit måttligt framgångsrika panelfabrikanter som gör 22: 9 och 2: 1 skärmar (som Philips). Även om pixeldensiteten och den absoluta upplösningen gick ner i några år gick tumstorleken upp och det såldes. Varför köpa en 19 "1280 × 1024 när du kan köpa en 21" 1366 × 768? Va…

    Jag tror att omslaget täcker alla viktiga aspekter här. Det finns mer självklart; bandbreddsgränserna för HDMI, DVI, DP och naturligtvis VGA spelade en roll, och om du går tillbaka till pre-2000-talet spelade grafikminne, bandwdith i datorn och helt enkelt gränserna för kommersiellt tillgängliga RAMDACer en viktig roll. Men för dagens överväganden handlar det om allt du behöver veta.


    Har du något att lägga till förklaringen? Ljud av i kommentarerna. Vill du läsa mer svar från andra tech-savvy Stack Exchange-användare? Kolla in hela diskussionsgängan här.