ホームページ » の仕方 » 垂直解像度モニタの解像度が360の倍数になるのはなぜですか?

    垂直解像度モニタの解像度が360の倍数になるのはなぜですか?

    モニタの解像度のリストを十分に見ていると、パターンに気付くかもしれません。垂直解像度の多く、特にゲームやマルチメディアディスプレイの解像度は、360の倍数(720、1080、1440など)です。場合?それは恣意的なのか、それとももっと何か仕事があるのか?

    本日の質疑応答セッションは、コミュニティ主導のQ&A Webサイトのグループである、Stack Exchangeの下位区分であるSuperUserの好意により提供されます。.

    質問

    SuperUserの読者Trojandestroyが最近、彼のディスプレイインターフェースについて何か気づいたので答えが必要だ。

    YouTubeは最近1440pの機能を追加しました、そして私は初めて(すべての?)垂直解像度が360の倍数であることに気づきました.

    これは、最小の共通解像度が480×360なので、倍数を使用するのが便利だからです。 (倍数が便利であることは間違いありません。)そして/または最初の表示可能/便利なサイズの解像度なので、ハードウェア(テレビ、モニターなど)は360を念頭に置いて成長しました。?

    さらにそれを考えて、なぜ正方形の解像度を持っていないのですか?それとも他に変わったことがありますか? (それが見えることが十分に普通であると仮定して)。それは単に目を見張るような状況なのでしょうか。?

    では、なぜ表示は360の倍数になるのでしょうか。?

    答え

    SuperUserの寄稿者User26129は、なぜ数値パターンが存在するのかについての答えではなく、その過程におけるスクリーンデザインの歴史を私たちに提供しています。

    さて、ここでいくつかの質問と多くの要因があります。決議は、心理学会議マーケティングの非常に興味深い分野です。.

    何よりもまず、YouTubeの垂直解像度が360の倍数になっているのはなぜでしょうか。これはもちろん任意です。これが本当の理由ではありません。その理由は、ここでの解像度がYouTube動画の制限要因ではないためです - 帯域幅はそうです。 YouTubeは2、3回アップロードされたすべてのビデオを再エンコードしなければならず、すべての異なるユースケースをカバーするためにできるだけ少ない再エンコードフォーマット/ビットレート/解像度を使用しようとします。低解像度のモバイル機器の場合は360×240、高解像度のモバイルの場合は480p、コンピュータ群衆の場合は2xISDN /マルチユーザー固定電話の場合は360p、DSLの場合は720p、高速インターネットの場合は1080pです。 h.264以外のコーデックもしばらくの間ありましたが、これらはh.264が本質的にフォーマット戦争に「勝った」ことと、このためのハードウェアコーデックが装備されたことで、徐々に廃止されつつあります。.

    今、いくつかの興味深い精神心理学も起こっています。私が言ったように:解像度はすべてではありません。本当に強い圧縮を使用した720pは、非常に高いビットレートで240pよりも悪くなる可能性があります。しかし、それとは反対に、特定の解像度でより多くのビットを投げても、魔法のようにある点を超えてそれが良くなるわけではありません。ここに最適なものがあります、もちろんそれは解像度とコーデックの両方に依存します。一般に、最適なビットレートは実際には解像度に比例します.

    それでは、次の質問は次のとおりです。どのような解決手順が理にかなっているか。明らかに、人々は実際に顕著な違いを見る(そして好む)ためには解像度を約2倍にする必要があります。それ以下のものでも、多くの人が単により高いビットレートを気にする必要はないでしょう。彼らは他のもののために彼らの帯域幅を使いたいと思います。これはかなり以前から研究されており、私たちが720×576(415kpix)から1280×720(922kpix)へ、そして再び1280×720から1920×1080(2MP)へと進んだ理由です。その間のものは実行可能な最適化ターゲットではありません。また、1440Pは約3.7MPで、HDの約2倍の増加です。そこに違いがあります。その後の4Kは次のステップです.

    次は、魔法のような360垂直ピクセルの数です。実際には、マジックナンバーは120または128です。すべての解像度は、今日では128の倍数になっていた頃、120ピクセルの倍数です。これは、LCDパネル業界から生まれたものです。 LCDパネルは、ラインドライバと呼ばれるものを使用します。これは、各サブピクセルの明るさを制御する、LCD画面の側面にある小さなチップです。歴史的に、私は本当によくわからない理由、おそらくメモリの制約、これらの128の倍数または120の倍数の解像度がすでに存在していたので、業界標準のラインドライバは360ライン出力(1サブピクセルあたり1)のドライバになりました。あなたがあなたの1920×1080スクリーンを取り壊すならば、私は上部/下部に16人のラインドライバーと側面の一方に9人がいることにお金をかけているでしょう。おお、それは16:9です。 16:9が「発明された」ときに解像度の選択が戻ってきたことがどれほど明白かを推測してください.

    それからアスペクト比の問題があります。これは実際にはまったく別の分野の心理学ですが、結局のところ次のようなことが言えます。歴史的にみて、人々は私たちが一種のワイドスクリーンビューを持っていると信じ、測定してきました。当然のことながら、スクリーン上のデータの最も自然な表現はワイドスクリーンビューであると人々は信じていました。そして、これは60年代の大きなアナモルフィック革命がより広いアスペクト比で撮影されたときに起こりました.

    それ以来、この種の知識は洗練されたものになり、ほとんどがデビューしました。はい、私たちは広角の視野を持っていますが、私たちが実際にはっきりと見ることができる領域 - 私たちのビジョンの中心 - はかなり丸いです。やや楕円形で押しつぶされていますが、実際は約4:3や3:2を超えることはありません。そのため、画面上のテキストを読むなど、詳細な表示には、2000年代半ばまでのスクリーンに少し似た、ほぼ正方形のスクリーンを使用することで、詳細な視覚のほとんどを利用できます。.

    しかし、これもマーケティングがそれを採用した方法ではありません。昔のコンピューターは、主に生産性と細かい作業に使用されていましたが、コモディティ化され、メディア消費機器としてのコンピューターが進化するにつれて、ほとんどの場合、人々は必ずしも自分のコンピューターを仕事に使用しませんでした。映画、テレビシリーズ、写真など、メディアコンテンツの視聴に使用されていました。そのような表示のためには、画面があなたの視野(周辺視野を含む)のできるだけ多くを満たすならば、あなたは最も 'イマージョンファクター'を得る。ワイドスクリーンを意味する.

    しかし、まだもっとマーケティングがあります。詳細作業が依然として重要な要素であったとき、人々は解決を気にかけていました。画面上のできるだけ多くのピクセル。 SGIはほぼ4KのCRTを販売していました!ガラス基板から最大量のピクセルを取り出すための最も最適な方法は、できるだけ正方形にカットすることです。 1:1または4:3の画面には、対角インチあたりのピクセル数が最も多くなります。しかし、ディスプレイがより消費されるようになるにつれて、ピクセルサイズではなく、インチサイズがより重要になりました。これは完全に異なる最適化ターゲットです。素材から最も斜めのインチを取り出すには、画面をできるだけ広くします。最初に16:10、次に16:9になり、22:9と2:1のスクリーンを製造するパネルメーカーがやや成功しています(Philipsのように)。ピクセル密度と絶対解像度が数年間低下したにもかかわらず、インチサイズが上昇し、それが売れたものです。 21 "1366×768を購入できるのに、なぜ19" 1280×1024 "を購入するのですか。え…

    私はについてここですべての主要な側面をカバーすると思います。もちろんもっとあります。 HDMI、DVI、DP、そしてもちろんVGAの帯域幅の制限が役割を果たしました、そしてあなたが2000年代以前に戻るならば、グラフィックメモリ、コンピュータ内の帯域幅、そして単に市販のRAMDACの制限は重要な役割を果たしました。しかし、今日の考慮事項にとって、これはあなたが知る必要があるすべてについてです.


    説明に追加するものがありますか?コメントの中で消してください。他の技術に精通したStack Exchangeユーザーからの回答をもっと読みたいですか?こちらのディスカッションスレッドをチェックしてください。.