Frage von sotnu, 46

Fernseher haben zum Teil 1900Hz und der beste Monitor nur 144Hz?

Also der beste Monitor, der mir bekannt ist, hat max. 144Hz. Bei Fernseher aber sieht man des öfteren Zahlen wie 1900Hz oder sogar noch höher. Also wie geht das ? Und ja, ich weiss, dass Man mit HDMI sowieso max 50/60 Bps erreichen kann und mit Display Port mehr, aber das interessiert mich garnicht, also bitte nicht auf die Schnittstellen eingehen.

Deshalb die Frage, wie geht das, das Monitore nur 144Hz haben und Fernseher teilweise bis 2000. Die einzige Erklärung die mir einfällt ist, dass man das irgendwie per Software hochrechnet.

Wenn das so wäre, kommt nämlich gleich die nächste Frage :) Woher weiss man denn, dass das bei Monitoren nicht passiert und nur bei Fernsehern und vor allem, wie weiss man die eigentliche Frequenz? Kann man das irgendwie ausrechnen ? In Datenblätter von bestimmten Fernsehmodellen steht sowieso nie wirklich viel. Da steht zum Teil nicht mal, welche HDMI version genutzt wird, oder der Kontrast ect. Also fällt das schonmal weg.

Und wie gesagt, bitte nicht auf die Schnittstelle eingehen, egal ob sie das ganze sowieso begrenzt, es geht mir nur darum, es einfach zu wissen.

Danke shconmal :)

Antwort
von aluny, 42

Der Unterschied liegt im Anwendungsgebiet und der technischen Umsetzung.

Beim TV gibt es technisch bedingt nur 25 Bilder Pro Sekunde, was 25 Herz entspricht. Nur kam es dabei zu dem Effekt, das bei schnellen Bewegungen eine Unschärfe bzw. das Nachziehen entstanden ist. Daher kamen schlaue Entwickler auf die Idee, das Bild mehrfach darzustellen um eben das zu minimieren. Mittlerweile sind die hohen Bildwiederholraten aber eher zur Werbemaßnahme verkommen, da das menschliche Auge das eh nicht mehr unterscheiden kann. Nachzulesen z.B. hier http://www.t-online.de/digital/fernsehen-heimkino/id_18714950/flachbildfernseher... .

Beim PC-Monitor sieht das Ganze etwas anders aus, hier wird die hohe Bildwiederholrate nur bei Spielen gebraucht und bringt dem Spieler bis auf den geringeren Wischeffekt keinerlei Vorteil. Der Unterschied zum TV ist aber, das hier wesentlich mehr Bilder pro Sekunde erzeugt und auf den Monitor übertragen werden können. Das bedeutet, es werden im Gegensatz zum TV nicht nur Bilder einfach vervielfacht, sondern dann wirklich 144 unterschiedliche Bilder pro Sekunde angezeigt. Um diese hohe Bildrate zu erzeugen braucht es aber entsprechend leistungsfähige Hardware (Grafikkarten). In dem Zusammenhang wird ja bei Spielen immer von den FPS-Werten, was ja Bildern pro Sekunde entspricht, gesprochen.

Also zB..100FPS=100Bilder/Sekunde=100Herz und welche Grafikkarte schafft schon, um bei deinem Beispiel zu bleiben,1900 Bilder/Sekunde in entsprechender Qualität darzustellen. Daher ergibt sich für den PC-Monitor kein Bedarf an solch hohen Wiederholraten...

Betreff deiner Frage, das auszurechnen, das geht sicher, wenn man die genauen technischen Daten des Gerätes kennt. Ansonsten bleibt nur mit entprechenden Hilfsmitteln zu schauen, wie oft ein neues Bild auf dem Bildschirm erneuert wird...

Kommentar von sotnu ,

Also erstmal danke für die ausführliche Antwort.

Dann noch eine kleine Ergänzung von mir, was ich schon weiss, damit du das auch weisst, bzw. in deine vlt. folgende Antwort mit einbeziehen kannst.

Also das Filme grundsätzlich in 24Bps gespeichert werden (also auf Blurays mein ich( aufgenommen sind viele auf wesentlich mehr,)), weiss ich, allerdings wird in Zukunft ganz bestimmt 50 der Standart sein (in Europa) . Da bin ich überzeugt. Also gilt diese Ausrede von " für Fernseher gibt es eh nur Material bis 24Bps" bald nicht mehr (Ich meine jetzt nicht deine Aussage, sondern allgm.).

Jetzt aber wieder zurück zu meiner Frage.

Warum sind die Fernseher technisch bedingt nicht in der Lage mehr als 24 Bps darzustellen ? Meinst du wegen der Schnittstelle HDMI ? Wenn ja, dann nicht weiter darauf eingehen (aber bestätigen bitte ^^), denn das ist ja jetzt auch Schluss, seit HDMI 2.0.

Wenn aber nein, warum ist das so ?

Also angenommen, ich spiele ein Spiel, mit der Grafikkarte komme ich auf 1900 Bps (rein hyphotetisch), würde dann der Fernseher mit 1900Hz in der lage sein, das Signal auszugeben, wenn (!) man die Schnittstelle HDMI (wegen der Datenübertragung) ausser acht lässt ? Oder kann er das nicht wirklich ?

Ach ja, du hast von Hilfsmittel gesprochen, mit denen man die "tatsächliche Bildrate" feststellen kann (also wie viele verschiedene Bilder pro Sekunde). Welche wären dass denn und sind die bezahlbar ?

Nochmals gesagt, ich weiss, die Bildrate ist dank HDMI begrenzt, aber darum gehts mir nicht. Ich möchte nur wissen ob Fernseher mit 1900Hz auch wirklich in der lage wären, signale mit 1900 Bps auszugeben, eben ohne Blick darauf, dass das Kabel bzw. die Schnittstelle das nicht zulassen würde (keine Ahnung, ob Signal technisch gesehen korrekt ist).

Danke schonmal für die Antwort :-) Die Frage stelle ich mir schon lange.

Kommentar von aluny ,

Rein hypothetisch? Beim TV werden ja nur 25 Herz am Eingang erwartet und dann für die Darstellung hochgerechnet.

Ganz einfach ausgedrückt (ich bin ja kein Fernsehfachmann), die Grafikkarte am PC kann sicher mehr, gibt aber technisch bedingt nur 25 Herz für den TV aus, daher ist es egal, mit welcher Framerate das Spiel auf dem Rechner läuft. Und da der Eingang des TV (auch wieder technisch bedingt) auf 25 Herz (bei HDMI ggf ja auch 60) ausgelegt ist, wird er mit höheren Raten nichts anfangen können...

Wie diese Gerätschaften zum Messen der Bildwiederholfrequenz heißen kann ich dir jetzt so aus dem Stehgreif nicht sagen. Vom Prinzip her muß man nur schnell genug schauen, dann sieht man ja wann/wie oft das Bild neu aufgebaut wird.

Eine zweite Variante wäre das Prinzip Shutterbrille (abdunkeln oder belichten des Bildes), womit man das nachvollziehen könnte.

Ja, die Geräte geben die Bilder dann z.B. 1900 mal in der Sekunde aus. Das aber mit der Eischränkung das die original 25 Bilder/Sekunde so oft wiederholt werden das 1900/Sekunde entstehen

Kommentar von sotnu ,

Aber wieso gibt die Grafikkarte nur 25 Bps aus, wegen der begrenzten Übertragung ? Oder warum ist das so ?

Ich meine das ist doch voll unlogisch.

Wenn ich ein Fernseher mit 3 Schnittstellen habe, 1 HDMI1.4, ein HDMI 2.0 und ein Displayport 1.3 (und das selbe bei der Grafikkarte), dann sollte ich doch nicht auf 25 Bps begrenzt sein, oder  (ausser ich spiele ein Film ab, der nur mit 24 Bps produziert wurde, das ist natürlich dann klar) ?

Über HDMI 2.0 oder Displayport sollte man mind. 50 Bps erreichen können. Ich verstehe also nicht, warum eine Grafikkarte einem Fernseher nur ein Signal von max. 25 Bps aussendet, selbst wenn die Schnittstelle mehr zulassen würde.

Aber ich versuchs umgekehrt zu erklären.

Angenommen ich habe einen PC-Monitor mit 144Hz. Er hat Displayport 1.3 (die Schnittstelle wäre aber beschädigt) und auch noch HDMI 1.4 (intakt). Wenn ich dich jetzt fragen würde, ob der Bildschirm theoretisch ein Signal von 90 Hz ausgeben kann (z.B beim Zocken), wenn man die Schnittstellen ausser acht lassen würde, würdest du ja auch nicht 25 sagen, sondern 144 oder ?

Weisst du wie ich das meine ? Ich weiss, dass die Schnittstelle der Flaschenhals ist, aber ich frage mich, ob ein Fernseher mit 1900Hz ein Signal von 1900Hz übertragen könnte, wenn (!) die Schnittstelle dazu fähig wäre.

Sorry, falls ich dir langsam auf die nerven gehe, aber das versuche ich schon länger herauszufinden (ohne Erfolg).

Kommentar von aluny ,

Wenn Du es genau wissen willst, würde ich vorschlagen, Du fragst beim technischen Support der Gerätehersteller nach...

Kommentar von sotnu ,

Ok, werde ich dann mal machen. Danke für die Hilfe.

Antwort
von maxspies99, 34

2000 Hz machen eh keinen Unterschied mehr und kann das menschliche Auge überhaupt net mehr wahrnehmen wahrnehmen. Von daher ist das nur pure Geldmache.

Kommentar von sotnu ,

Wie schön, dass du so schön auf meine Frage eingegangen bist, eine so konstruktive Antwort gegeben hast und diesen Teil so aufmerksam gelesen hast "es geht mir nur darum, es einfach zu wissen."...

Keine passende Antwort gefunden?

Fragen Sie die Community