Fernseher haben zum Teil 1900Hz und der beste Monitor nur 144Hz?

2 Antworten

Der Unterschied liegt im Anwendungsgebiet und der technischen Umsetzung.

Beim TV gibt es technisch bedingt nur 25 Bilder Pro Sekunde, was 25 Herz entspricht. Nur kam es dabei zu dem Effekt, das bei schnellen Bewegungen eine Unschärfe bzw. das Nachziehen entstanden ist. Daher kamen schlaue Entwickler auf die Idee, das Bild mehrfach darzustellen um eben das zu minimieren. Mittlerweile sind die hohen Bildwiederholraten aber eher zur Werbemaßnahme verkommen, da das menschliche Auge das eh nicht mehr unterscheiden kann. Nachzulesen z.B. hier http://www.t-online.de/digital/fernsehen-heimkino/id_18714950/flachbildfernseher-mit-hohen-hertz-zahlen-sinnvoll-oder-nicht-.html .

Beim PC-Monitor sieht das Ganze etwas anders aus, hier wird die hohe Bildwiederholrate nur bei Spielen gebraucht und bringt dem Spieler bis auf den geringeren Wischeffekt keinerlei Vorteil. Der Unterschied zum TV ist aber, das hier wesentlich mehr Bilder pro Sekunde erzeugt und auf den Monitor übertragen werden können. Das bedeutet, es werden im Gegensatz zum TV nicht nur Bilder einfach vervielfacht, sondern dann wirklich 144 unterschiedliche Bilder pro Sekunde angezeigt. Um diese hohe Bildrate zu erzeugen braucht es aber entsprechend leistungsfähige Hardware (Grafikkarten). In dem Zusammenhang wird ja bei Spielen immer von den FPS-Werten, was ja Bildern pro Sekunde entspricht, gesprochen.

Also zB..100FPS=100Bilder/Sekunde=100Herz und welche Grafikkarte schafft schon, um bei deinem Beispiel zu bleiben,1900 Bilder/Sekunde in entsprechender Qualität darzustellen. Daher ergibt sich für den PC-Monitor kein Bedarf an solch hohen Wiederholraten...

Betreff deiner Frage, das auszurechnen, das geht sicher, wenn man die genauen technischen Daten des Gerätes kennt. Ansonsten bleibt nur mit entprechenden Hilfsmitteln zu schauen, wie oft ein neues Bild auf dem Bildschirm erneuert wird...

15

Also erstmal danke für die ausführliche Antwort.

Dann noch eine kleine Ergänzung von mir, was ich schon weiss, damit du das auch weisst, bzw. in deine vlt. folgende Antwort mit einbeziehen kannst.

Also das Filme grundsätzlich in 24Bps gespeichert werden (also auf Blurays mein ich( aufgenommen sind viele auf wesentlich mehr,)), weiss ich, allerdings wird in Zukunft ganz bestimmt 50 der Standart sein (in Europa) . Da bin ich überzeugt. Also gilt diese Ausrede von " für Fernseher gibt es eh nur Material bis 24Bps" bald nicht mehr (Ich meine jetzt nicht deine Aussage, sondern allgm.).

Jetzt aber wieder zurück zu meiner Frage.

Warum sind die Fernseher technisch bedingt nicht in der Lage mehr als 24 Bps darzustellen ? Meinst du wegen der Schnittstelle HDMI ? Wenn ja, dann nicht weiter darauf eingehen (aber bestätigen bitte ^^), denn das ist ja jetzt auch Schluss, seit HDMI 2.0.

Wenn aber nein, warum ist das so ?

Also angenommen, ich spiele ein Spiel, mit der Grafikkarte komme ich auf 1900 Bps (rein hyphotetisch), würde dann der Fernseher mit 1900Hz in der lage sein, das Signal auszugeben, wenn (!) man die Schnittstelle HDMI (wegen der Datenübertragung) ausser acht lässt ? Oder kann er das nicht wirklich ?

Ach ja, du hast von Hilfsmittel gesprochen, mit denen man die "tatsächliche Bildrate" feststellen kann (also wie viele verschiedene Bilder pro Sekunde). Welche wären dass denn und sind die bezahlbar ?

Nochmals gesagt, ich weiss, die Bildrate ist dank HDMI begrenzt, aber darum gehts mir nicht. Ich möchte nur wissen ob Fernseher mit 1900Hz auch wirklich in der lage wären, signale mit 1900 Bps auszugeben, eben ohne Blick darauf, dass das Kabel bzw. die Schnittstelle das nicht zulassen würde (keine Ahnung, ob Signal technisch gesehen korrekt ist).

Danke schonmal für die Antwort :-) Die Frage stelle ich mir schon lange.

0
39
@sotnu

Rein hypothetisch? Beim TV werden ja nur 25 Herz am Eingang erwartet und dann für die Darstellung hochgerechnet.

Ganz einfach ausgedrückt (ich bin ja kein Fernsehfachmann), die Grafikkarte am PC kann sicher mehr, gibt aber technisch bedingt nur 25 Herz für den TV aus, daher ist es egal, mit welcher Framerate das Spiel auf dem Rechner läuft. Und da der Eingang des TV (auch wieder technisch bedingt) auf 25 Herz (bei HDMI ggf ja auch 60) ausgelegt ist, wird er mit höheren Raten nichts anfangen können...

Wie diese Gerätschaften zum Messen der Bildwiederholfrequenz heißen kann ich dir jetzt so aus dem Stehgreif nicht sagen. Vom Prinzip her muß man nur schnell genug schauen, dann sieht man ja wann/wie oft das Bild neu aufgebaut wird.

Eine zweite Variante wäre das Prinzip Shutterbrille (abdunkeln oder belichten des Bildes), womit man das nachvollziehen könnte.

Ja, die Geräte geben die Bilder dann z.B. 1900 mal in der Sekunde aus. Das aber mit der Eischränkung das die original 25 Bilder/Sekunde so oft wiederholt werden das 1900/Sekunde entstehen

0
15
@aluny

Aber wieso gibt die Grafikkarte nur 25 Bps aus, wegen der begrenzten Übertragung ? Oder warum ist das so ?

Ich meine das ist doch voll unlogisch.

Wenn ich ein Fernseher mit 3 Schnittstellen habe, 1 HDMI1.4, ein HDMI 2.0 und ein Displayport 1.3 (und das selbe bei der Grafikkarte), dann sollte ich doch nicht auf 25 Bps begrenzt sein, oder  (ausser ich spiele ein Film ab, der nur mit 24 Bps produziert wurde, das ist natürlich dann klar) ?

Über HDMI 2.0 oder Displayport sollte man mind. 50 Bps erreichen können. Ich verstehe also nicht, warum eine Grafikkarte einem Fernseher nur ein Signal von max. 25 Bps aussendet, selbst wenn die Schnittstelle mehr zulassen würde.

Aber ich versuchs umgekehrt zu erklären.

Angenommen ich habe einen PC-Monitor mit 144Hz. Er hat Displayport 1.3 (die Schnittstelle wäre aber beschädigt) und auch noch HDMI 1.4 (intakt). Wenn ich dich jetzt fragen würde, ob der Bildschirm theoretisch ein Signal von 90 Hz ausgeben kann (z.B beim Zocken), wenn man die Schnittstellen ausser acht lassen würde, würdest du ja auch nicht 25 sagen, sondern 144 oder ?

Weisst du wie ich das meine ? Ich weiss, dass die Schnittstelle der Flaschenhals ist, aber ich frage mich, ob ein Fernseher mit 1900Hz ein Signal von 1900Hz übertragen könnte, wenn (!) die Schnittstelle dazu fähig wäre.

Sorry, falls ich dir langsam auf die nerven gehe, aber das versuche ich schon länger herauszufinden (ohne Erfolg).

0
39
@sotnu

Wenn Du es genau wissen willst, würde ich vorschlagen, Du fragst beim technischen Support der Gerätehersteller nach...

1
15
@aluny

Ok, werde ich dann mal machen. Danke für die Hilfe.

0

2000 Hz machen eh keinen Unterschied mehr und kann das menschliche Auge überhaupt net mehr wahrnehmen wahrnehmen. Von daher ist das nur pure Geldmache.

15

Wie schön, dass du so schön auf meine Frage eingegangen bist, eine so konstruktive Antwort gegeben hast und diesen Teil so aufmerksam gelesen hast "es geht mir nur darum, es einfach zu wissen."...

0

Macht ein Umstieg von einem 60Hz auf einen 144Hz Monitor Sinn?

Macht ein Umstieg von einem 60Hz auf einen 144Hz Monitor Sinn? Hallo Seit nunmehr über 4 Jahren habe ich diesen Monitor https://www.amazon.de/gp/product/B00280QRUM/ref=oh_aui_detailpage_o00_s00?ie=UTF... Er verrichtet klaglos seinen Dienst und bisher bin ich mit ihm zufrieden.

 Nun, die Entwicklung geht ja weiter, und da ich etwa 300€ für eine "Aufrüstung" übrig habe (PC soll so bleiben), kam mir ein neuer Monitor in den Sinn. Für einen Monitor mit allem Schnick-Schnack (G-Sync u.s.w.) fehlt aber das Geld.

Genutzt wird der Monitor zum Surfen, Office und zum Spielen. Bei den Spielen überwiegen Aufbau/Strategiespiele, keine Ego-Shooter. Das ganze für mehrere Stunden täglich. In der engeren Wahl sind diese beiden Monitore, die ich als Antworte poste Bliebe also abschließend die Frage zu klären, ob es, für meinen Bedarf (keine Shooter) überhaupt Sinn macht. Antworten von Umsteigern sind daher sehr willkommen, aber auch Links in denen das Thema behandelt wird. Und natürlich völlig andere Ideen für einen Monitor in der Preisklasse^^ Danke für eure Aufmerksamkeit.

...zur Frage

Fernseher wird als Monitor verwendet, ist aber unscharf. Brauche Hilfe!

Hi Leute, ich habe mir nen neuen Rechner zugelegt, bloß leider habe ich nur noch einen Blaupunkt Fernseher, der als PC-Monitor verwendet wird. Der Monitor hat Full HD auflösung, doch trotz dessen wird das Bild nicht als Volbild angezeigt und ist Unscharf, sowie die Buchstaben sind echt schon schwer zu erkennen wenn man was schreiben oder lesen möchte. Wo ich den Fernseher über HDMI angeschlossen habe, war das Bild echt scharf und die Buchstaben konnte man echt gut erkennen. Dann habe ich den Grafikkarten Treiber aktualiesiert. Nun sieht das Bild richtig Schei...... aus, wie oben beschrieben. Was kann ich alles machen damit es scharf ist und ich alles erkennen kann. Und endlich Vollbild habe!?

Brauche schnelle und echt hilfreiche Antwort.

Vielen Dank im Vorraus

PumaFreak08

...zur Frage

Wie kann ich Ultrastar auf dem LCD Fernseher laufen lassen?

Das Spiel würde ich gerne über den Fernseher spielen, also dass Bild und Ton, das normal auf dem Laptop ist, auf dem Fernseher angezeigt wird.

Was wäre der beste Weg? Ich habe einen sehr aktuellen Laptop mit Windows Vista, der denke ich alle Ausgänge oder Anschlüße hat. Ich weiss nur nicht genau, welche Kabel man braucht und so weiter.

...zur Frage

HDMI Monitor flackert

Ich betreibe an meinem PC einen Monitor von Acer mit 1920x1080 Pixeln. Seit einiger Zeit ist es so, dass ab und zu ein vertikaler, mehrere hundert Pixel breiter, Streifen (immer an der gleichen Stelle) des Displays schwarz/weiß flackert. Wenn ich das HDMI-Kabel kurz aus- und wieder einstecke, ist das Problem, temporär behoben. Doch nach einigen Stunden flackert es wieder an der gleiche Streifen. Was kann ich dagegen machen?

...zur Frage

Wie regle ich den Ton über einen HDMI Splitter getrennt?

Ich dupliziere vom PC der nur einen HDMi Ausgang hat über ein Splitter das Signal auf den PC Monitor und auf den TV. Der Ton lässt sich aber nicht einzeln regeln sprich ich hab auf beiden Geräten den gleichen Pegel und kann auch nicht einen stummschalten. Wie funktioniert das getrennt. Der TV geht über die Anlage und der PC Monitor hat eigene interne Lautsprecher so das ein Hall entsteht.

...zur Frage

Nach Windows-Neuinstallation ruckelt Video bei mehreren Anzeigen. Was tun?

Hallo, zusammen! Ich habe folgendes Problem. Nach der Windows-Neuinstallation von einem Monat, ruckelt das Video wenn ich den Fernseher am PC anschließe. Davor gab es nie irgendwelche Probleme. Der Monitor ist über HDMI angeschloßen, Fernseher über DVI Adapter+HDMI Kabel. Die Anzeigen werden dupliziert, neuesten Treiber sind drauf. Ich habe versucht in den Einstellungen von Nvidia was umzuändern (Aktualisierungsrate, Auflösung usw.), hat aber nichts gebracht. Mehrere Media-Player auch versucht, das Problem tritt wieder. Die Videos laufen nicht flüssig.

Was auch interessant ist, dass das Ruckeln nicht immer sofort eintritt. Mal spielt sich das Video ohne Probleme ab, mal ruckelt es ziemlich stark. Ich ziehe dann den HDMI Kabel vom Fernseher aus, dann läuft das Video wieder normal.

Vor der Neuinstallation gab es nie irgendwelche Probleme. Auf dem PC laufen die gleichen Programme, nicht zusätzliches installiert. Bitte um Hilfe.

...zur Frage

Was möchtest Du wissen?