[o1] Lofi007 am 06.01. 19:04
+2
-2
[re:2] iBlecheimer am 06.01. 21:59
@Lofi007: nVidia Quattro oder AMD Fire Pro, da der Monitor eher für Bild- und Videobearbeitung gedacht ist, als zum zocken.
@Lofi007: Nun ja, in der maximalen Auflösung wird man wohl kaum Spiele spielen können, egal was für eine Grafikkarte zum Einsatz kommt. Aber da bei 4k auch eine hoch-skalierte 1080p Auflösung für ein deutlich wahrnehmbares besseres Bild sorgt, könnte ich mir bei 8k ähnliches vorstellen.
Aber erst mal die Preise und Langlebigkeit der Geräte im Auge behalten. Ich glaube ohnehin nicht das man hier zu Anfang den Heimanwender bedienen möchte.
Aber erst mal die Preise und Langlebigkeit der Geräte im Auge behalten. Ich glaube ohnehin nicht das man hier zu Anfang den Heimanwender bedienen möchte.
@Tomarr: Ich zitiere mal aus der News: "Zur Zielgruppe dürften erst einmal vor allem jene Anwender gehören, die professionell mit Bildmaterial arbeiten - also etwa Designer und Videoeditoren."
Was genau verstehst du daran nicht? Vielleicht kann ich dir Hilfestellung bieten!
Was genau verstehst du daran nicht? Vielleicht kann ich dir Hilfestellung bieten!
@Skidrow: Ruhig Brauner. Ist ja alles jut mein Jung.
Aber je Nach GrafikdesignProgramm müssen trotzdem noch zusätzlich Brechnungen durchgeführt werden. Das es Grafikkarten gibt die die reine Pixelzahl bedienen können ist klar. Wäre traurig wenn nicht.
Aber je Nach GrafikdesignProgramm müssen trotzdem noch zusätzlich Brechnungen durchgeführt werden. Das es Grafikkarten gibt die die reine Pixelzahl bedienen können ist klar. Wäre traurig wenn nicht.
@Tomarr: Und diese Berechnungen schafft eine 1060 nicht? Kannst du das irgendwie belegen? Oder ein konkretes Beispiel nennen? Im übrigen hatte Lofi gefragt, mit welcher Graka man diesen Monitor "betreibt".
Ach ich bin ganz ruhig, aber du meintest ja, man müsse die Karten zusammenschalten. Daher gehe ich davon aus, dass du vom Thema so gar keine Ahnung hast. Und da muss man ja nun mal eingreifen, findest du nicht? :)
Ach ich bin ganz ruhig, aber du meintest ja, man müsse die Karten zusammenschalten. Daher gehe ich davon aus, dass du vom Thema so gar keine Ahnung hast. Und da muss man ja nun mal eingreifen, findest du nicht? :)
@Skidrow: Ist doch langweilig wenn man auf so nem Monitor nicht mal ein paar Spiele spielen kann, bzw. nicht in der tollsten Grafik. Von daher macht so ein Zusammenschluss, vielleicht dann doch lieber 3 x 1080 doch viel mehr Spaß. Du musst mal etwas lockerer werden und den Spaß im Leben nicht vergessen.
Ja ich weiß. Kaum bis gar kein SPiel wird 8K Texturen haben blabla. SPAAAAAß haben im Leben !!!!
Ja ich weiß. Kaum bis gar kein SPiel wird 8K Texturen haben blabla. SPAAAAAß haben im Leben !!!!
@Tomarr: Ok, also wenn ich mal einen professionellen Grafikdesigner treffe, der bei dem Monitor vor Freude wild-onanierend vor die Wand springt, werde ich ihm sagen: "Der Monitor ist total langweilig, weil man kann keine Spiele in 8k drauf zocken!"
Mal gucken, wie viel Spaß ich ihm damit bereite.
Mal gucken, wie viel Spaß ich ihm damit bereite.
@Skidrow: Naja, in erster Linie dürftest du dann Spaß dabei haben wenn du einen Grafikdesigner siehst der Wild onanierend gegen die Wand springt. Darauf kommt es an, nicht dass der andere Spaß hat.
Aber mal ehrlich, ich bin nicht son wirklicher Aüflösungsfetischist. Ich glaube kaum das ein Grafikdesigner ein 8K Display braucht für seine Arbeit. Sicher kommt es drauf an was er genau macht. Aber 8K? Ich weiß nicht. Was soll das Auge denn da noch zu 4K unterscheiden?
Aber mal ehrlich, ich bin nicht son wirklicher Aüflösungsfetischist. Ich glaube kaum das ein Grafikdesigner ein 8K Display braucht für seine Arbeit. Sicher kommt es drauf an was er genau macht. Aber 8K? Ich weiß nicht. Was soll das Auge denn da noch zu 4K unterscheiden?
@Tomarr: Ich bin kein Grafikdesigner. Deswegen nehme ich mir auch nicht heraus beurteilen zu können, ob diese Leuten einen 8k Monitor brauchen. Du solltest Dell auf jeden Fall Bescheid sagen, dass der Monitor sinnlos ist. Dann können die vielleicht die Produktion noch stoppen.
Aber eine Frage hab ich noch: Meldest du dich auch z.B. in einem Medizinforum an und schreibst dort, dass das neue High Performance Gastroskop mit verbesserter Optik sinnlos ist, weil du der Meinung bist, mit den alten ginge die Magenspiegelung genauso gut?
Aber eine Frage hab ich noch: Meldest du dich auch z.B. in einem Medizinforum an und schreibst dort, dass das neue High Performance Gastroskop mit verbesserter Optik sinnlos ist, weil du der Meinung bist, mit den alten ginge die Magenspiegelung genauso gut?
@Tomarr: Eine Auflösung unabhängig der Displaygröße und dem Abstand zu diesem zu beurteilen, ist genauso dämlich wie der Glaube unbedingt mit dieser Nativ zocken zu müssen.
Mein alter 19 zoll Röhrenmonitor von vor 20 Jahren konnte 1800x1600 Pixel, trotzdem wäre ich nie auf die Idee gekommen Quake mit dieser Auflösung zu zocken. Oder hätte den nutzen des Monitors in Frage gestellt. Damals hatte man sich über jedes Pixel und Platz auf dem Desktop mehr gefreut. Heute wirft man immer dieses stumpfsinnige Spiele Argument in dem Raum. Aber damals hätt ich auch nie gedacht, dass man ca 20 Jahre später, Auflösungstechnisch immer noch kaum weiter gekommen ist bzw. rückgängig war, weil sich FullHD so geil anhört.
Mein alter 19 zoll Röhrenmonitor von vor 20 Jahren konnte 1800x1600 Pixel, trotzdem wäre ich nie auf die Idee gekommen Quake mit dieser Auflösung zu zocken. Oder hätte den nutzen des Monitors in Frage gestellt. Damals hatte man sich über jedes Pixel und Platz auf dem Desktop mehr gefreut. Heute wirft man immer dieses stumpfsinnige Spiele Argument in dem Raum. Aber damals hätt ich auch nie gedacht, dass man ca 20 Jahre später, Auflösungstechnisch immer noch kaum weiter gekommen ist bzw. rückgängig war, weil sich FullHD so geil anhört.
@daaaani: Na wie ich ja schon sagte, es kommt bestimmt auch drauf an was er designed. Aber ich kann mir halt kaum vorstellen das 8k gegenüber 4k noch unterscheidbar ist für das Auge. Ich kenne einige Designer, aber keiner von denen arbeitet so Pixelgenau. Ich denke das ist eher ein subjektiver Eindruck von mehr Schärfe.
@Tomarr: Achso mehr schärfe ist also kein Unterschied? Aha sehr interessant! Also 280ppi ist jetzt nix unerhörtes, sowas sollte Standard sein. Ein Unterschied muss nicht dadurch erkennbar sein, dass man bei dem einem Monitor weniger Pixel zählen kann wie bei den anderen. Das man Bildpunkte überhaupt noch wahrnehmen kann zeugt von Mangelndem Fortschritt. Willst doch bei einem Foto in den Händen doch auch keine Pixel zählen können. Nur weil man keine Pixel mehr erkennt, bedeutet es nicht, dass man nicht anderweitige Qualitätssteigerungen mehr erkennt.
Bei Spielen, um mal auf dein Lieblingsbeispiel zurückzukommen, hatte man damals ab einem Punkt so geile Ideen, die Pixel der mangelhaft aufgelösten Texturen mit speziellen Filtern zu verwaschen. Wäre niemals auf die Idee gekommen, dass durch Erhöhung der Auflösung dieser Texturen, eine Zunahme der Schärfe nur Subjektiv wäre.
Das Menschliche Auge kann eine Zunahme der Schärfe zu 280ppi locker wahrnehmen. Gerade bei sehr feinen Details. Bei analog Fernsehen konnte ich schon keine Pixel mehr wahrnehmen, sehr wohl aber eine Zunahme der Schärfe und dadurch Erhöhung von Details zu FullHD wie auch zu 4k. Und da Monitore und Fernseher, so nebenbei mal, auch noch größer werden, ist eine Anhebung der Auflösung nur Konsequent.
Erst wenn du einen Aufgehängten Fernseher, in seiner Darstellung von Licht, Farbe und Schärfe nicht mehr von einem Blick aus dem Fenster unterscheiden kannst, von nahem nicht von 1000m Entfernung, dann erst ist das ende der Entwicklung erreicht. Und erst danach macht eine Steigerung keinen Sinn mehr, da erst ab da an das Auge und Gehirn das Gesehene als etwas Reales wahrnimmt und nicht als ein Künstliches oder Technisches Bild.
Bei Spielen, um mal auf dein Lieblingsbeispiel zurückzukommen, hatte man damals ab einem Punkt so geile Ideen, die Pixel der mangelhaft aufgelösten Texturen mit speziellen Filtern zu verwaschen. Wäre niemals auf die Idee gekommen, dass durch Erhöhung der Auflösung dieser Texturen, eine Zunahme der Schärfe nur Subjektiv wäre.
Das Menschliche Auge kann eine Zunahme der Schärfe zu 280ppi locker wahrnehmen. Gerade bei sehr feinen Details. Bei analog Fernsehen konnte ich schon keine Pixel mehr wahrnehmen, sehr wohl aber eine Zunahme der Schärfe und dadurch Erhöhung von Details zu FullHD wie auch zu 4k. Und da Monitore und Fernseher, so nebenbei mal, auch noch größer werden, ist eine Anhebung der Auflösung nur Konsequent.
Erst wenn du einen Aufgehängten Fernseher, in seiner Darstellung von Licht, Farbe und Schärfe nicht mehr von einem Blick aus dem Fenster unterscheiden kannst, von nahem nicht von 1000m Entfernung, dann erst ist das ende der Entwicklung erreicht. Und erst danach macht eine Steigerung keinen Sinn mehr, da erst ab da an das Auge und Gehirn das Gesehene als etwas Reales wahrnimmt und nicht als ein Künstliches oder Technisches Bild.
@daaaani: Meinst nicht dass das eher eingebildet ist? Weil mal ganz ehrlich, wenn man Grafikdesigner ist, oder auch 3D-Modeller, dann macht man viel von Hand. Bei Fotografin, ok, das kann ich vielleicht noch akzeptieren, aber wenn das wirklich Designer machen, also von Hand usw. Die müssten ja Pixelgenau arbeiten damit das was bringt. Ich kenne keinen der mit mathematischen Formeln Designs erstellt, das wäre dann auch noch eine Möglichkeit, aber viele Designer die ich kennen gelernt habe die Zeichnen halt auch viel von Hand.
Und dann kommt es ja auch auf das Endmedium an. Was nützt es wenn ich etwas Designe und auf dem Medium, was gibts da alles?... Ich sag mal Webseiten die mit normalen Monitoren angeschaut werden, Logos von Firmen, Flaggen, T-Shirts etc. Bei einigen ist da eher die Ausgabetechnik wichtiger als der Monitor des Designers.
Mal so in den Raum geworfen es wird ein Firmenlogo entworfen, nur als Beispiel, und die Folie für die Schilder wird dann per Cutter oder so zurechtgeschnitten. Der Cuttermaschine ist die Auflösung egal. Oder es wird auf Folie gedruckt. Ich habe noch nie ein Firmenschild gesehen das wirklich scheiße aussah weil der Monitor des Designers eine niedrige Auflösung hatte. Ist mir einfach noch nie passiert, und ich glaube auch keinem anderen.
Und dann kommt es ja auch auf das Endmedium an. Was nützt es wenn ich etwas Designe und auf dem Medium, was gibts da alles?... Ich sag mal Webseiten die mit normalen Monitoren angeschaut werden, Logos von Firmen, Flaggen, T-Shirts etc. Bei einigen ist da eher die Ausgabetechnik wichtiger als der Monitor des Designers.
Mal so in den Raum geworfen es wird ein Firmenlogo entworfen, nur als Beispiel, und die Folie für die Schilder wird dann per Cutter oder so zurechtgeschnitten. Der Cuttermaschine ist die Auflösung egal. Oder es wird auf Folie gedruckt. Ich habe noch nie ein Firmenschild gesehen das wirklich scheiße aussah weil der Monitor des Designers eine niedrige Auflösung hatte. Ist mir einfach noch nie passiert, und ich glaube auch keinem anderen.
@Tomarr: Du hast dich zu sehr auf das Designer eingeschossen, eventuell wegen der vorangegangenen Diskussion. Richtig am ende sieht das meiste gut aus, da die Auflösung der Projekte immer wesentlich höher ist als die der Monitore. Gerade je kleiner sie werden bzw. je näher man diesen kommt sie halten kann. Aber das ist ja der springende Punkt, du willst kein verpixeltes Logo haben, kein verpixeltes Foto oder Flyer in den Händen halten. Deshalb arbeitet man mit entsprechend hohen Auflösungen! Warum? Richtig weil der Mensch die Details wahrnehmen kann.
Dann kommt so einer wie du daher und meint Jeder der Computer benutz bräuchte diese bei Monitoren nicht. Da genügt es durch ein Raster zu schauen. Eins was seit mehreren Jahrzehnten nahezu Stillsteht. Obwohl die dahinterliegenden Grafiken höher Aufgelöst sind, sofern sie eine solche Auflösung besitzen. Viele Grafiken sind keine Pixelgrafiken. Aber du hast richtig erkannt, in deinem Beispiel ist das schwächste Glied in der Kette der Monitor. Alle anderen Glieder besitzen ausreichend Auflösung.
Dann kommt so einer wie du daher und meint Jeder der Computer benutz bräuchte diese bei Monitoren nicht. Da genügt es durch ein Raster zu schauen. Eins was seit mehreren Jahrzehnten nahezu Stillsteht. Obwohl die dahinterliegenden Grafiken höher Aufgelöst sind, sofern sie eine solche Auflösung besitzen. Viele Grafiken sind keine Pixelgrafiken. Aber du hast richtig erkannt, in deinem Beispiel ist das schwächste Glied in der Kette der Monitor. Alle anderen Glieder besitzen ausreichend Auflösung.
@daaaani: Ich habe ja gar nicht geschrieben das sie gar keiner braucht. Ich habe nur geschrieben das ich nicht so Aulösungsversessen bin. Was die anderen machen ist mir doch schnuppe. Wenn jemand meint es zu enötigen, dann bitte. Da bin ich ja nicht so engstirnig. Soll jeder Geld ausgeben füe was er mag. Und vielleicht überzeugt mich das 8K ja irgendwann einmal, aber bis jetzt bin ich davon halt nicht überzeugt, auch nach diese Diskussion nicht.
8k finde ich aus einem Grund interessant (der gleiche Grund warum 4k uninteressant ist). Bei 8k sollte man 1080p verwenden können, ohne das die Bildqualität durch interpolation leidet. Bei 4k könnte man den Effekt nur mit 960x540 erreichen.
@tacc: Wie kommst du denn auf den Trichter? UHD bietet genau 4mal so viele Pixel wie FHD
1920*2=3840
1080*2=2160
UHD entspricht 3840 × 2160.
1920*2=3840
1080*2=2160
UHD entspricht 3840 × 2160.
@Skidrow: Ein 8 K Bildschirm mit 16 zu 9 und 32 Zoll:
Bildschirmbreite: 70.8cm
Bildschirmhöhe: 39.8cm
bei einem Bilschirm von 64 Zoll oder 162,5 cm
Bildschirmbreite: 141.6cm
Bildschirmhöhe: 79.6cm
könnte man insgesamt vier völlig rahmenlose 32 Zoll 4K Monitore simulieren....
32 Zoll und 8K macht das überhaupt Sinn, wenn man fast mit der Nase dransitzt?
Bildschirmbreite: 70.8cm
Bildschirmhöhe: 39.8cm
bei einem Bilschirm von 64 Zoll oder 162,5 cm
Bildschirmbreite: 141.6cm
Bildschirmhöhe: 79.6cm
könnte man insgesamt vier völlig rahmenlose 32 Zoll 4K Monitore simulieren....
32 Zoll und 8K macht das überhaupt Sinn, wenn man fast mit der Nase dransitzt?
[re:1] JacksBauer am 06.01. 22:49
Also ich bin mit HD-Ready zufrieden. Und HD reicht mir vollkommen aus. Das war ja schon schärfer, als die Realität. Dann kam UHD also 4 mal soviele Pixel, als HD. Und nun kommt 8K? Wie viel schärfer ist das nun? Die bringen die neuen Displays mit größerer Auflösung ja schneller raus, als die geplante Obsoleszenz zuschlagen kann! :-D
@EffEll: Naja, was bringt der Werbeslogan zu einer längst überholten Technik? Aber ich finde, es geht viel zu schnell mit den technischen Errungenschaften. Man hat ja keine Zeit mehr, eine Technologie zu genießen. Geht man in 3 Monaten mit einem brandneuen 8K-TV aus dem Laden und schaut zuhause in einem Magazin vorbei, wird bereits von 16K die Rede sein. Der technische Fortschritt hat total die Spannung verloren. Gleiches jetzt mit den Kaby-Lake Prozessoren. Hab gedacht, die würden mal mehr Lanes unterstützen, um noch mehr Speed aus dem System zu kitzeln, aber auch wieder weit gefehlt. Ein Hauch mehr MHz, ein Hauch weniger Strom, aber ansonsten ists doch Baugleich mit dem Skylake.
Da fehlt irgendwie der flair, den es früher noch gab. Es geht auch nicht mehr um Errungenschaften, sondern nur noch darum, ein Produkt auf den Markt zu werfen, dass wieder Umsatz generiert. Was anderes zählt doch überhaupt nicht mehr. Und wer ist schuld? Apple! Die haben mit ihrem ersten iPhone diesen Jahresumsatzgenerator doch überhaupt erst ins Rollen gebracht. Vorher konnten Geräte auch mal etwas älter werden. Aber heute muss es jedes Jahr was neues sein, weil man sonst technisch Meilenweit hinterher hinkt.
Da fehlt irgendwie der flair, den es früher noch gab. Es geht auch nicht mehr um Errungenschaften, sondern nur noch darum, ein Produkt auf den Markt zu werfen, dass wieder Umsatz generiert. Was anderes zählt doch überhaupt nicht mehr. Und wer ist schuld? Apple! Die haben mit ihrem ersten iPhone diesen Jahresumsatzgenerator doch überhaupt erst ins Rollen gebracht. Vorher konnten Geräte auch mal etwas älter werden. Aber heute muss es jedes Jahr was neues sein, weil man sonst technisch Meilenweit hinterher hinkt.
[o5] TheKreamCs am 07.01. 17:43