Dengan semua perangkat keras hebat yang kami miliki saat ini, tampaknya kita harus menikmati kualitas yang hebat, apa pun yang terjadi, tetapi bagaimana jika itu tidak terjadi? SuperUser Q & A postingan hari ini berusaha untuk memperjelas hal-hal untuk pembaca yang bingung.
Sesi Tanya & Jawab hari ini hadir untuk memberi kami hak milik SuperUser-sub divisi Stack Exchange, pengelompokan situs web Q & A berbasis komunitas.
Foto milik lge (Flickr).
Pembaca superUser pembaca ingin tahu mengapa ada perbedaan kualitas yang mencolok antara HDMI-DVI dan VGA:
Saya memiliki monitor Dell U2312HM yang terhubung ke laptop Dell Latitude E7440. Ketika saya menghubungkan mereka melalui laptop -> Kabel HDMI -> adaptor HDMI-DVI -> monitor (monitor tidak memiliki soket HDMI), gambar jauh lebih tajam daripada jika saya terhubung melalui laptop -> adaptor miniDisplayPort-VGA -> VGA kabel -> monitor.
Perbedaannya sulit ditangkap dengan kamera, tetapi lihat upaya saya di bawah ini. Saya mencoba bermain dengan pengaturan kecerahan, kontras, dan ketajaman, tetapi saya tidak bisa mendapatkan kualitas gambar yang sama. Resolusi adalah 1920 * 1080 dengan Ubuntu 14.04 sebagai sistem operasi saya.
VGA:
HDMI:
Mengapa kualitasnya berbeda? Apakah itu intrinsik terhadap standar-standar ini? Bisakah saya memiliki kabel VGA yang rusak atau adaptor mDP-VGA?
Mengapa ada perbedaan kualitas antara keduanya?
Kontributor SuperUser Mate Juhasz, youngwt, dan Jarrod Christman memiliki jawabannya untuk kami. Pertama, Mate Juhasz:
VGA adalah satu-satunya sinyal analog di antara yang disebutkan di atas, jadi ini sudah merupakan penjelasan untuk perbedaannya. Menggunakan adaptor dapat semakin memperburuk kualitas.
Beberapa bacaan lebih lanjut: HDMI vs DisplayPort vs. DVI vs. VGA
Dilanjutkan dengan jawaban dari youngwt:
Dengan asumsi kecerahan, kontras, dan ketajaman yang sama pada kedua kasus, mungkin ada dua alasan lain mengapa teks lebih tajam dengan HDMI-DVI.
Yang pertama telah dinyatakan, VGA adalah analog, sehingga harus melalui konversi analog ke digital di dalam monitor. Ini secara teoritis akan menurunkan kualitas gambar.
Kedua, dengan asumsi bahwa Anda menggunakan Windows, ada teknik yang disebut ClearType (dikembangkan oleh Microsoft) yang meningkatkan tampilan teks dengan memanipulasi sub piksel monitor LCD. VGA dikembangkan dengan monitor CRT dalam pikiran dan gagasan subpiksel tidak sama. Karena persyaratan ClearType menggunakan layar LCD dan fakta bahwa standar VGA tidak memberi tahu host tentang spesifikasi layar, ClearType akan dinonaktifkan dengan koneksi VGA.
Saya ingat pernah mendengar tentang ClearType dari salah satu pembuatnya di podcast untuk This (). Developers (). Life () IIRC, tetapi artikel Wikipedia ini juga mendukung teori saya. Juga HDMI kompatibel dengan DVI dan DVI mendukung Identifikasi Tampilan Elektronik (EDID).
Dengan jawaban akhir kami dari Jarrod Christman:
Yang lain membuat beberapa poin bagus, tetapi alasan utamanya adalah jam yang jelas dan ketidakcocokan fase. VGA adalah analog dan dapat terganggu dan tidak cocok dengan sisi pengiriman dan penerima analog. Biasanya orang akan menggunakan pola seperti ini:
Jam dan Fase
Kemudian sesuaikan jam dan fase monitor untuk mendapatkan kecocokan terbaik dan gambar paling tajam. Namun, karena analog, penyesuaian ini dapat bergeser dari waktu ke waktu, dan dengan demikian Anda idealnya hanya menggunakan sinyal digital.
Memiliki sesuatu untuk ditambahkan ke penjelasan? Bicaralah di komentar. Ingin membaca lebih banyak jawaban dari pengguna Stack Exchange yang paham teknologi lainnya? Lihat diskusi lengkap di sini.