amiga-news ENGLISH VERSION
.
Links| Forum| Kommentare| News melden
.
Chat| Umfragen| Newsticker| Archiv
.

amiga-news.de Forum > Andere Systeme > XP 2500 barton vs. Xp 2800 Barton [ - Suche - Neue Beiträge - Registrieren - Login - ]

1 2 3 -4- 5 [ - Beitrag schreiben - ]

11.06.2006, 00:53 Uhr

Bogomil76
Posts: 2800
Nutzer
Zitat:
Original von Maja:

Wo sind da die Nachteile, ausser dass sie teurer sind als CRC?


- Farbtreue
- native Pixel
- auch Flackern möglich, je nach Synchronisation (auch nicht nach tausend mal rumprobieren einstellbar
- Neigungswinkel
- DVI Port extra zu bezahlen (Hallo Industrie? Die Wandlung fällt weg und kost extra?)


Vorteile spare ich mir, sind hier schon erwähnt worden...

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 01:32 Uhr

Maja
Posts: 15429
Nutzer
@Bogomil76:

> - Farbtreue

Hier excellent. Beweise mir das Gegenteil.

> - native Pixel

Das ist eine subjektives Problem, kein echter Nachteil. ;)

> - auch Flackern möglich, je nach Synchronisation (auch nicht nach
> tausend mal rumprobieren einstellbar

Hier flackert nix. Ganz gleich bei welcher Syncornisation.

> - Neigungswinkel

Ich kann auch noch aus einem Blickwinkel von annähernd 180 Grad alles genau erkennen was sich auf dem Monitor abspielt. Das Bild erscheint nicht mal grau.

> - DVI Port extra zu bezahlen (Hallo Industrie? Die Wandlung fällt
> weg und kost extra?)

Meiner hat DVI und VGA vom Werk aus.

Es gibt unterschiedlich gute Geräte. Die schlechten darunter macht TFTs nicht allgemein zu einer schlechten Wahl. Es gibt und gab auch grottenschlechte CRCs, mal mit mehr, mal mit weniger Schnittstellen.

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 02:44 Uhr

L-ED
Posts: 391
Nutzer
Farbtreue

Das ist eben ein 2 Schneidiges Schwert und absolut abhängig was für eine Hardware man betreibt, ist es beispielsweise nur ne normale vielleicht schon etwas ältere ATI GFX (Marke 9600 etc.) dann rechnet die intern sowieso schon nur in einem 24Bit Spektrum und läst dessen zu jeweils 8Bit pro Kanal zum Monitor raus. Was zusammengerechnet die theoretisch mögliche und auch nur intern vorhandene 24Bit Farbpalette ergibt.

Die auch jeder halbwegs heutige gängige TFT unterstützt zumindest auf dem Papier, in der Praxis hat man aber realistischerweise gesehen oftmals nur ein auf 6Bit breites Nuance Spektrum pro Farbkanal (RGB) was die wirklich differenzieren können und was man als Mensch wahrnehmen kann.

Theoretisch kann man also von einer Farbtreue sprechen wenn da ne GFX Technik hinter die auf 24Bit Basis läuft/ausgibt. Wenn allerdings da ne Workstation GFX hinter die welche intern eine 128Bit breite Palette kennt und aus diesen dann jeweils für ein auf 10Bit breites Nuance Spektrum pro Kanal ausgibt. Ist es sehr sicher dass ein nur 8Bit verarbeitender TFT, falsch Farben anzeigt und man nicht von Farbgetreue mehr reden kann.

Es geht einzig darum das die Mögliche Farbnuance Anzahl bei normalen TFT's begrenzt ;)

während einem CRT es egal .. wenn ma eben Beispielsweise ne quadro meint ihm Farbe zu geben die außerhalb des sRGB Spektrums, dann stellt er auch diese dann auch so da. Man sieht einen/den differenzierenden Farbunterschied, während auf nem herkömmlichen TFT nicht wirklich was anderes dann farblich los (dort werden dann die dem an nächsten kommenden Farben genommen).

Es gibt HighEnd TFT's für den Workstation Segment .. die knacken sogar auch die 10Bit pro Kanal durch, allerdings können auch dieses nicht alles Widergeben was ne quadro raus zu hauen im Stande! Allerdings ist es ab diesem Level vernachlässigbar ;)

Und eben aber genau diese Pro TFT haben aber das Technisch bedingte Problem in ihre vergleichsweise miserablen Reaktionszeit. (und nebenbei noch trotzdem extrem Teuer sind!)

Lange rede kurzer Verhalt :->

Es gib heut zu Tage bei dem Flachbildschirmen TFT/LCD noch nix was mit einem CRT mithalten könnte, mal fehlt es am einen mal am anderen.

Einzig der Stromverbrauch, da Punkten sie und im Platzbedarf und ja vielleicht sehen se ja uch noch schicker aus als ne klobige Röhre?

Wobei ich eben sagen muss das der Platzbedarf bei mir sekundär (Schreibtisch ist groß) und ich bin mit meinen inneren Verständnis einfach nicht in übereinzukommen. Das ich vergleichsweise ein Heiden Geld hinlege und aber nur faktisch ein viertel der Miete dann dafür habe?

Ferner noch haben gerade die HighEnd TFT's ein Problem, das nach spätestens ca. 5 Jahren das Paneel sich aber langsam aber sehr sicher verabschiedet. Und ja, ich stehe auf dem Standpunkt das Technik ein Fortschritt stellen soll und kein Rückschritt , das ist alles. :)


Und Farbe ist ein relativer Begriff, ne Quadro GFX vermag allein schon ein 24Bit breites Rot Nuancen Spektrum intern zu Kennen aus welchen die Hardware erwählen kann

also Rot ist nicht gleich Rot ;)

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 02:52 Uhr

Maja
Posts: 15429
Nutzer
@L-ED:

Nur dass das alles höchstens noch für Profigrafiker wirklich relevant ist. Allen anderen kann es herzlich Wurst sein, ob der Monitor die eine oder andere Farbnuance, die er sowieso nicht sehen kann, anzeigt oder nicht.

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 10:01 Uhr

Bogomil76
Posts: 2800
Nutzer
Zitat:
Original von Maja:
@Bogomil76:

> - Farbtreue

Hier excellent. Beweise mir das Gegenteil.

> - native Pixel

Das ist eine subjektives Problem, kein echter Nachteil. ;)

> - auch Flackern möglich, je nach Synchronisation (auch nicht nach
> tausend mal rumprobieren einstellbar

Hier flackert nix. Ganz gleich bei welcher Syncornisation.

> - Neigungswinkel

Ich kann auch noch aus einem Blickwinkel von annähernd 180 Grad alles genau erkennen was sich auf dem Monitor abspielt. Das Bild erscheint nicht mal grau.

> - DVI Port extra zu bezahlen (Hallo Industrie? Die Wandlung fällt
> weg und kost extra?)

Meiner hat DVI und VGA vom Werk aus.


Farbtreue s.o.

native Pixel: Für Dich vielleicht, bei Sachen die eine andere Auflösung brauchen nicht gut. Selbst bei einfachem DVD gucken bzw. TV wird skaliert/interpoliert.

Flackern: Ja in Deinem Fall Glück (ich rede nicht vom DVI Anschluss, sondern VGA Anschluss). Ich habe schon TFTs in der Hand gehabt die flackern an bestimmten Grafikkarten wo andere Geräte sauber laufen und umgekehrt.

Blickwinkel: OK ist subjektiv von TFT unterschiedlich, aber in der Technik an sich enthalten.

DVI: Jaaaa, schön daß es enthalten ist bei Dir, aber ohne DVI wäre der Monitor n Fuffi billiger gewesen. Ich will ja nur darauf hinaus, daß die Hersteller uns da schröpfen. Im Prinzip wird bei DVI ja die digitalen Signale 1:1 weitergegeben. Es findet keine Analog/Digital Wandlung statt, dennoch kostets Aufpreis. Nun gut, meist ist ein VGA Eingang dennoch vorhanden somit das Bauteil verbaut, dennoch ist der höhere Preis nicht gerechtfertigt technisch.

mfg


[ Dieser Beitrag wurde von Bogomil76 am 11.06.2006 um 12:52 Uhr geändert. ]

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 10:46 Uhr

Andreas_B
Posts: 3121
Nutzer
@Bogomil76:
>> Ich habe schon TFTs in der Hand gehabt die flackern
>> an bestimmten Grafikkarten wo andere Geräte sauber
>> laufen und umgekehrt.

Das ist übrigens kein exklusives TFT-Phänomen. Es kann auch bei CRT-Monitoren vorkommen, dass sie in Kombination mit gewissen Grafikkarten nicht 100%ig funktionieren. Das habe ich vor kurzem, bevor ich der Leidtragende wurde, auch nicht gewusst, aber das hat mir die Herstellerfirma nach zweimaligem Geräteaustausch dann selbst bestätigt!

Ciao,
Andreas.

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 12:52 Uhr

Bogomil76
Posts: 2800
Nutzer
Das stimmt, hab das Phänomen aber öfter bei TFTs erlebt als bei CRTs, da man da meist eine andere Frequenz/Auflösung einstellen kann die eher synchronisiert.

mfg

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 13:59 Uhr

L-ED
Posts: 391
Nutzer
bei solchen Aussagen bin ich dazu geneigt dem in einen gewissen objektiven abstand betrachten zu wollen, allein schon aus der Erfahrung die ich selber bisher dahingehend dann machte.

Denn ist es nicht oftmals so, dass man von anderen Ortes her einem gerne Erzählen mag was man gefälligst gut zu finden hat, was völlig ausreichend. *g*

Und man dann gerne in Bereichen wo man nun nicht so bewandert, nur zu leicht geneigt dessen dann mit Aufzugreifen, insbesondere wenn es auch dem eigenen Befinden gerade gut zu Munden scheint? ;)

Wie eben bei einer Monitor *neu* Anschaffung, wo man dann sich sagt ach warum den keiner von den schicken neuen Flachen!? :->

Und da diese ja auch noch um gewichtiges Teurer braucht der inner Schweinehund noch bissel Futter, das gut Zureden, dass es ja per se die modernere/bessere Technik sei und so gesehen sogar dann noch ein Schnäppchen. ;)

Und die Industrie ist gerne bereit diesen Schweinehund mit Halbwahrheit und dem geschickten wecklassen von nicht so genehmen Hintergründen und Fakten, zu füttern.

Und man geht dann auch gerne auf Industrie Seiten, nicht so abgesprochene aber einander stillschweigende Deals ein! ;)

Bestes Beispiel sind da schon die TFT/LCDs.

Normal täte man sich ja Fragen warum Nvidia das nie Werbewirksam erwähnte das sie eigentlich schon seid FX nen Chip haben der 128Bit Farben schwer. Das man ihm in Gamer (GeForce) Version per Treiber auf ne 32Bit breite Architektur reduziert, tut ja erst ma nix zu Sache. ATI hat/hätte aber dagegen noch momentan absolut rein gar nix zusetzen, die stehen erst bei 64Bit, nur selbst das könnten herkömmliche TFTs ja schon nimmer Farblich packen! *hüstele*

Na ja und spätestens wenn die das hätten Versuchen wollen auf diesem Level Werbung zu machen täten verstärkter Freaks wie unsereins ins bild rücken und den Leuten erst ma Erklären was da am Ende von der 64/128Bit Grafik auf dem TFT dann zu sehen.. nämlich nichts (weil die das Technisch schon gar nicht können)!

Und das währe natürlich für den künstlich gepushten hype von eigentlich unterlegener Technik gar nicht so günstig. Auch verstärkter sich dann der normale Bürger fragen würde, ja wofür zahle ich eigentlich solche Unsummen ? für was?

Und die GFX Hersteller nutzen diese Tatsache im Konsummer Segment dann für sich halt aus um eben die Farbbandbreite gleich ma wieder per se stark einzuschränken. Um so gleichsam noch paar mehr Performance Punkte zu schinden. Und über TFTs ja eh kein wirklich sehr viel breiteres Spektrum sichtbar möglich.

Also dahingegen wird auf jeder Seite (vorerst?) schön die klappe gehalten und der normal Verbraucher in Unwissenheit gewiegt. Und im Pro Bereich weiß man es ja, was wirklich Phase und da bedarf es also keiner werbewirksamen Erklärungen mehr (die auffällig wirken könnten wenn sich doch mal verstärkter normal Bürger verirren täten und das dann im Detail lesen *wie billig sie doch abgespeist werden* )

/////////

Ok jetzt werden wir mal zum Schluss konkreter, warum es nicht stimmt was da erzählt ... das es ja für normal durchaus ausreichend .. friss und halt die klappe .. (stell gar keine weiteren Ansprüche) so oder so ähnlich.

Anhand eines Praxis Beispiel … im Freizeit / Spiele Segment.

Im Fall Quadro hieß es ja auch das Quadro Grafik sich nicht zum Spielen eigne derweil schon allein durch die aufgebohrte interne Palettenbandbreite (ab NV30/GL30) Langsamer und überhaupt Treibertechnisch an Workstation Einsatz Szenarios optimiert, verstärkter da dann Open GL.

Klingt für den Laien erstmal logisch und das plappert er gern auch mal nach und so halten sich Dinge im Raum die zu ihrer Anfangzeit vielleicht noch eine gewisse Gültigkeit besessen hatten da dort in der Tat die Basis Potenz fehlte um beides gut durch zu reißen.

Seit dem NV40 / GL40 (6800/FX4000) ist das aber Geschichte, da steckt so viele Rohpower hinter dieser Technik so das auch herkömmliche Spiel Szenarios (trotz allem, gemeint der weit präziseren / höherwertigen Grafik), ohne weiters relevantes Einbrechen durchgerissen werden können.

Und im Falle von ID Titeln (OpenGL), hat man dann im Gegenzug sogar eher noch ein Vorteil als ein Nachteil ;)

Ein Farb Effektfrohes Spiel wie UT2004 erstrahlt unter Quadro GFX erst so wirklich, schöne Farbnuancen in den Farbtönen. Wenn man sich das im Vergleich auf so nen TFT dann ansieht oder nur schon in Gamer Treibern, ist das nicht zu Vergleichen. Alles eher blasser und oder überzeichnet, in Richtung tendierend das ein kraftvoller Farbton Dominierend und nicht etwa so schön weiche Differenzierungen noch einmal innerhalb eines farblichen Effektes.

Und von daher kann man *NICHT* Sagen das es für otto- normal ja keine im gewinnbringende Relevanz ;) *beileibe nicht! Er kennt es nur nicht anders / den Unterschied / täte er in Kennen täte er auch nicht drauf Verzichten wollen / so wird ein Schuh draus ;) *


Fassen wir zusammen

Die Grafikhardware ist/währe Aktuell durchaus potent und vermögend genug für schönere Farbe, die gut und billig Anzeige Technik (welche aber Teurer und als besser Verkauft), steht dem Unterfangen aber schon ma hinderlich im Wege.

Ich kann und will so was nicht gut heißen denn ich Kenne um die Unterschiede und weiß eben das es eben doch nicht so unrelevant wie die Werbung/Industrie versucht den Verbraucher weiß zu machen.

Warum auf schönere Darstellung etwa in Sachen Farbe Verzichten ? warum? , weil die Industrie nicht in der Lage um auf gut und billig dafür allgemein tauglichere TFTs zu Produzieren ! ?

Und man gehe davon aus das man auch in diesem Punkt schon weiter währe, oder alternativ dann ne gänzlich andere flach Paneele Technik bereits hätte (gibt schon andere Ansätze in der Material Forschung).

Ja!, wenn eben otto- normal Bürger (der Kunde), nicht so “anspruchslos“ währe.

Was da heißt, dass er in Wahrheit ja anspruchsvoll ist, aber durch sein Technisches Unwissen um Hintergründe und den fehlenden Vergleichsmomenten, nur all zu leicht zu foppen und sprichwörtlich an der Nase herumzuführen (mit billiger abzuspeisen als er eigentlich Aktuell beanspruchen könnte)

Die HDTV Fernseher werden unter diesem Gesichtspunkt auch noch mal interessant werden .. aber die ist eine andere Geschichte welche noch nicht geschrieben.

Stutzig macht ja aber allein schon das Sony gar nicht so mit dem 128Bit Farbvermögen ihres GFX Chips protzt .. da könnten se nämlich!? Denn dahingegen sähe die Aktuelle XBox sehr blass aus.

Aber nu ja da ma dahingehend Werbe technisch recht still, mag es durchaus sein das auch da die derzeit erhältliche Fernsehtechnik (die intern auch mehr und mehr nur noch Digital Arbeitend mit CPUs & co), farblich gar nicht auf solch einer breite vermögend. Und spätestens dann so Freaks wie … :-> aber das hatten ja schon

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 16:13 Uhr

Maja
Posts: 15429
Nutzer
@L-ED:

> Denn ist es nicht oftmals so, dass man von anderen Ortes her einem
> gerne Erzählen mag was man gefälligst gut zu finden hat, was
> völlig ausreichend. *g*

Ah! Darum schreibst Du dir jetzt hier die Finger wund, damit man gefälligst Röhrenmonitore besser findet, und scheust dabei auch nicht davor zurück, das damit zu würzen, andere der technischen Ahnungslosigkeit Preis zu geben und somit ein schlechtes Gewissen ob der schier unglaublichen Tatsache einzureden, von Dir als technischem Überflieger entlarvt, so unsagbar dämlich gewesen zu sein, für die wahrhaftig schlechtere Technik mehr Geld bezahlt zu haben. Nur, was soll ich mit 128Bit Farbtiefe?? 98% davon kann Mensch sowieso nicht voneinander unterscheiden. Da "interpoliert" das Gehirn. Sehr imprägnierend. :lach:

Andere versuchen einen Nachteil daraus herzuzleiten, dass manche Grafikkarten Probleme machen und andere nicht, was bei CRC auch nicht anders ist und maßgeblich von der jeweiligen Grafikkarte und deren Treiber abhängt. Oder, dass DVD gucken nicht so hübsch ist (was hier im übrigen auch nicht nachvollziehbar ist).

Vergleiche mit LCD-TVs helfen auch nicht wirklich weiter. Das heißt Äpfel mit Birnen vergleichen. TV ist ein ganz anderes Thema als die Ausgabe einer Grafikkarte. Als TV überzeugt mich LCD-Technik heute auch (noch) nicht. Dort würde ich heute auch (noch) zum Röhrengerät greifen. Nicht wegen dem Preis, sondern wegen der besseren Bildqualität.

Lasst gut sein. Ich hab hier ein TFT am Computer, das zweite schon (mir war nach was Größerem). Das Gerät ist für meine Zwecke mehr als Ausreichend. In (meiner) Wahrheit ist das Bild sogar besser als das aller CRC die ich je hatte, die sich nie richtig einstellen ließen (Kissenverzerrung, Unschärfe an den Bildkanten) und meine Stromrechnung ist jetzt um einiges angenehmer als mit CRC. :P

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 16:26 Uhr

Bogomil76
Posts: 2800
Nutzer
Hallo Maja,

wir sind doch bisher immer gut ausgekommen.
Mein Anliegen hier in der Sache war nur die Beantwortung Deiner Frage. Nich mehr nich weniger. Du hast nach Nachteilen gefragt, ich habe Dir faktische Nachteile die beweisbar sind gegeben.

die scheinst Du nicht zu akzeptieren. Nun gut, musst Du nicht, mir ist das Latte. Nur bedenke, wie Du selber sagst, hast Du zwei TFTs in längerem Einsatz gesehen (nämlich Deine eigenen). Die reichen Dir aus, was ich auch nachvollziehen kann. Ich habe Erfahrungen mit einer dreistelligen Anzahl an versch. TFTs und das hört nicht beim Auspacken auf. Auch hochwertige TFTs sind darunter, solche speziell fürs Proofing. Was ich Dir sagen kann, es gibt riesige, weitaus größere Unterschiede zwischen den Modellen. Für den Hausgebrauch mag der Großteil reichen, aber dennoch sind die Unterschiede da und nicht wegzuleugnen. Das Rot beim Splattern auch weitrhin rot ist und nich grün liegt ja nich am TFT ;) Und ob dunkel oder hellrot den Unterschied sieht man nicht.

Wie dem auch sei, Du hast gefragt ich habe geantwortet, also rede die Sachen nicht schön bleib objektiv.

P.S.: Ich habe auch privat TFTs im Einsatz... aber eben auch CRT ;)

mfg

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 16:33 Uhr

Bogomil76
Posts: 2800
Nutzer
Zitat:
Original von Maja:


Vergleiche mit LCD-TVs helfen auch nicht wirklich weiter. Das heißt Äpfel mit Birnen vergleichen. TV ist ein ganz anderes Thema als die Ausgabe einer Grafikkarte. Als TV überzeugt mich LCD-Technik heute auch (noch) nicht. Dort würde ich heute auch (noch) zum Röhrengerät greifen. Nicht wegen dem Preis, sondern wegen der besseren Bildqualität.


Wenn ein DVB Signal digital vorliegt kein Unterschied. Ausser dem Nachteil des Schwarzwertes

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 18:10 Uhr

Maja
Posts: 15429
Nutzer
@Bogomil76:

> wir sind doch bisher immer gut ausgekommen.

Das tun wir doch immer noch. Zumindest aus meiner Sicht gibt es da kein Problem. Man muss nicht immer einer Meinung sein und kann trotzdem gut miteinander auskommen, oder?

> ich habe Dir faktische Nachteile die beweisbar sind gegeben.

> die scheinst Du nicht zu akzeptieren.

Ich kann doch nun mal nur das akzeptieren, was ich selbst aus eigener Erfahrung auch als für mich real existierenden Nachteil nachvollziehen kann. Mir sind die rein technischen Unterschiede zwischen CRC und TFT bekannt. Nur sind native Pixel und rein technisch betrachtet geringere Farbtreue für mich kein Problem, weil die vorhanden immer noch ausreicht, weil es für mich rein subjektiv keinen Einfluss auf die Bildqualität hat. In Wahrheit ist kein Unterschied zu erkennen, wenn man nicht ausdrücklich danach sucht. Nicht mal im direkten Vergleich. Ich hab hier auch schon CRC und TFT gleichzeitig in Betrieb gehabt. Nur, dass die Anzeige des CRC kontrastärmer war.

Ein Beispiel: Ich hatte vorher eine 17" TFT, nur VGA. Den hatte ich mit 1024x768, 70hz betrieben, sah am Besten aus, für höhere Aufslösungen war das Display (subjektiv) zu klein, obgleich der die auch darstellen konnte. Den hatte ich vor rund 4 Jahren gekauft (Kaufentscheidung maßgeblich über Preis). Nun habe ich ein 19" TFT, DVI und VGA. Da ist die opitmale Auflösung 1280x1024, ob 60 oder 70hz macht keinen sichtbaren Unterschied. 1024x768 für den Desktop sieht auf dem Gerät sch..... aus (für Spiele gilt das nicht), und ja, das liegt an den nativen Pixeln und daran, dass die Anzahl der LCDs aus Kostengründen begrenzt ist. Doch wo ist das Problem? Kauft man sich nicht ein größers Display gerade weil man eine höhere Auflösung nutzen möchte?

Das mag dann ein Problem sein, wenn man ein System nutzt, dessen verfügbare Grafikkarten keine so hohe Auflösung leisten können. Doch, entschuldige bitte, dann sollte man sich sein Display enstprechend dem auswählen, was die Grafikkarte kann und schiebt das Problem nicht auf das Display. Gleiches gilt für Grafikkarten, die an manchen Displays streiken und an anderen nicht. Auf einem CRC dafür die Syncronisation wechseln zu müssen, um ein passables Bild zu erhalten, ist da IMHO nur ein weiterer Beweis für die mangelnde Qualität dieser Grafikkarte bzw. deren Treiber. Und wenn der CRC die subjektiv richtige Sync für diese Graka in der bevorzugten Auflösung zufällig nicht beherrscht, was dann? Ist dann der CRC nichts wert?

Früher hat man sich über die Vor- und Nachteile von Lochmasken mit runden oder schlitzförmigen Öffnungen "die Haare gerauft". ;)

Techniker (damit meine ich nicht Dich persönlich), die mir als Nachteil verkaufen wollen, was für mich persönlich kein nachvollziehbarer Nachteil ist, kommen mir immer vor wie Autohändler, die mir erzählen wollen, ein Wüstenfahrzeug mit Allrad-Antrieb sei auf dem befestigten Straßennetz Deutschlands ein gravierender Vorteil. ;)

Will heißen, was Techniker aufgrund ihres wissensbedingten Tunneldenkens sagen und was ich als Verbraucher für mich davon noch als real existierendes Problem wahrnehme, sind zwei paar Schuh.

Also; nichts gegen Dich persönlich. Wir sind hier halt nur verschiedener Meinung. Angesichts der Tatsache, dass Du aus meiner Sicht deine Meinung dazu nicht der meinen anpassen musst, ist auch das für mich kein Problem.

> Wenn ein DVB Signal digital vorliegt kein Unterschied.

Ich habe hier kein DVB Signal. Womit wir wieder beim rein subjektiven Empfinden von Problemen sind. Für mich als Kabelempfänger ist LCD-TV derzeit keine Alternative, weil das Bild rein subjektiv mit dem eines Röhrengerätes nicht mithalten kann.

[ Dieser Beitrag wurde von Maja am 11.06.2006 um 18:16 Uhr geändert. ]

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 19:23 Uhr

L-ED
Posts: 391
Nutzer
Zumindest hat man jetzt mal von einer anderen Warte einen Eindruck bekommen warum das so läuft und Funktioniert. Wenn ich ehrlich bin, ich hätte der TFT/LCD Technologie seiner Zeit noch nicht mal ne sonderlich lange Überlebenszeit am Markt bescheinigt.

Die unterschiede sind deswegen auf dem ersten Blick für dem Laien nicht ersichtlich, auch das hatte ich versucht gleichsam zu Erklären. Weil eben allein schon von der Grafikkartenseite her nicht mehr kommt, sie künstlich in ihrer eigentlich möglichen Farbbandbreite Beschnitten.

Und um dessen auszuhebeln man mehr oder weniger noch zusätzlich hintenrum ein wenig Aufwand betreiben muss.

Im Falle der GeForce Karten diese zu Quadro zu modden (bei manchen zusätzlich nen BIOS flash nötig), und dann am besten auch Quadro Treiber zu installieren! (man kann ne Quadro prinzipiell auch mit gamer Treibern füttern)

Und wenn man dann anfängt zu Vergleichen am besten mit so speziellen Farbschema Spektrums Tabellen und auch ma Farbprofile komplett wechselt. Wird auch deutlich und widerlegt gleichsam die eher schwammige Aussage das Menschliche Auge kann eh nur so und so.

Wenn dem nämlich so währe täte man ja eben kein Unterschied sehen und man hätte solcherlei Technologie wie eben nen 128Bit Schweren Grafikchip nie erfunden. Klar mit diese 128Bit sind wirklich unglaublich viele Farbdifferenzierungen möglich. Und man hat damit einen Grundstein gelegt der wohl noch lange erhalten bleiben wird den es ist schon das Level wo man teils glaubt deutlich mit über für den Menschen noch wahrnehmbaren hinaus zu sein.

Aber!

In Wahrheit weiß man das bis heute nicht genau wie viele Farben nun wirklich und ist sogar noch geschlechtsspezifisch und genetischen bedingt. Das sind Schätzungen/Hochrechnungen. und man ist sich heute schon recht sicher dass jeder Mensch nen leicht unterschiedliches Spektrum an Farben hat, die er eben Differenzieren kann.

Was aber sehr sicher ist … das 32Bit oder gar nur 24 Bit dieses Spektrum noch lange nicht abdeckt, klar es reicht erst mal subjektiv aus.

Wenn man aber wirklich hin will zu realistisch wirkender Computergrafik? Das se eben allein farblich nicht schon immer noch so steril Plastisch, Nebel und Rauchübergänge so unrealistisch fade Wirken!

Ein Stichwort währe dann auch das so genannte HDR Rendering, man wird von dieser Zielsetzung dann ausgehend (realitätsnahes Abbilden der Wirklichkeit / Echtzeitliche 3D Grafik in naturgetreue wirkenden Farbspektren). Auf eine zumindest Aufbohrung auf 64Bit Farbbreite nicht herumkommen, weil dessen einfach Technisch bedingt schon nötig.

Und von der Warte aus Betrachtet ist es kontraproduktiv Anzeigetechnik zu Entwickeln die das technisch gar nicht Darstellen kann. Weil so was ja in gleichermaßen einen Hemmschuh stellt und ein bösen Kreislauf. Warum soll man in Konsumer Segment dann Grafikkarten bringen die etwa auf 64Bit Ebene Arbeiten wenn am Ende davon doch nicht viel mehr am Bildschirm zusehen!? (das sollte es nämlich auch heißen .. die Technik ist seit Jahren da und ma krümelt da immer noch mit vergleichsweise kümmerlichen 24 Bit rum ^^)

Ja ich halte von solcherlei, dem Fortschritt kontraproduktiv im Wege stehenden Entwicklungen, absolut gar nix und das ist dann auch schon alles und stellte dann nur meine Meinung.

[ Dieser Beitrag wurde von L-ED am 11.06.2006 um 19:28 Uhr geändert. ]

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 20:18 Uhr

Maja
Posts: 15429
Nutzer
@L-ED:

> Wenn dem nämlich so währe täte man ja eben kein Unterschied sehen
> und man hätte solcherlei Technologie wie eben nen 128Bit Schweren
> Grafikchip nie erfunden.

Das hat nicht wirklich was mit der theoretisch möglichen Anzahl der darstellbaren Farben zu tun. Du würdest auch keinen Unterschied zwischen 32Bit und 24Bit sehen.

> Was aber sehr sicher ist … das 32Bit oder gar nur 24 Bit dieses
> Spektrum noch lange nicht abdeckt, klar es reicht erst mal
> subjektiv aus.

Erkläre mir mal, was ich davon habe, mehr zu haben als das, was mir subjetiv ausreicht.

Ausser vielleicht: Meiner ist länger. ;)

> Wenn man aber wirklich hin will zu realistisch wirkender
> Computergrafik? Das se eben allein farblich nicht schon immer noch
> so steril Plastisch, Nebel und Rauchübergänge so unrealistisch
> fade Wirken!

Ach komm. Im Vergleich zum Stand von noch vor 3, 4 Jahren ist Computergrafik heute schon erstaunlich realitätsnah. Sogar auf den ach so schlechten TFTs. Wenn ich da so an gewisse Trailer und In-Game-Video-Sequenzen mancher Spiele denke. Silent Hill IV oder Syberia 2, zum Bleistift (PC, nicht PS2 oder xBox, die auf dem TV auch nicht wirklich besser aussehen).

Natürlich kommt das immer noch nicht dem Blick aus dem Fenster gleich. Nur von unrealistisch und Fade kann bei entsprechend versierten Quellen heute keine Rede mehr sein. Dass es immer noch Softwareschmieden gibt, deren Grafik ausschaut wie Real3D auf dem Amiga (nichts gegen Amiga!), sagt über die vorhandenen Möglichkeiten nichts aus.

Dass man diese Realitätsnähe im Spiel selbst nicht hat, hängt in erster Linie von nun mal begrenzten Hardwareressourcen ab. Da sich nicht jeder ein absolutes HighEnd-System für 10.000 EUR und mehr leisten kann, müssen zugunsten der Geschwindigkeit Kompromisse bei der Detailstufe gemacht werden.

> Und von der Warte aus Betrachtet ist es kontraproduktiv
> Anzeigetechnik zu Entwickeln die das technisch gar nicht
> Darstellen kann. Weil so was ja in gleichermaßen einen Hemmschuh
> stellt und ein bösen Kreislauf.

> Ja ich halte von solcherlei, dem Fortschritt kontraproduktiv im
> Wege stehenden Entwicklungen, absolut gar nix und das ist dann
> auch schon alles und stellte dann nur meine Meinung.

Was die Technik in Sachen Displays in 5 oder 10 Jahren zu leisten imstande sein wird, das können wir Beide bestenfalls erahnen. Vor nicht allzu langer Zeit war Film in Farbe schon unvorstellbar. Davor konnte sich niemand Film mit Ton vorstellen. Davor konnte sich niemand Film überhaupt vorstellen. Dannn konnte sich niemand Computer mit mehr als 2 Farben vorstellen. Dann waren mehr als 265 Farben unvorstellbar.

An alter Technik festhalten zu wollen, wo es keinen Fortschritt mehr geben kann, und sich einer Entwicklungstufe neuer Technik zu verweigern, weil sie halt derezit nur das kann was sie derzeit kann und nicht mehr als man selbst wahrzunehmen imstande ist, ist mindestens genauso kontraproduktiv.

I-)

My 2 Cents.

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 20:40 Uhr

L-ED
Posts: 391
Nutzer
Oh das täte jetzt komplexer werden

Das Ding ist, man muss es auf einem Technischen Level gedacht/übertragen.

Diese gemeinten und spezifizierten 24Bit sind eine feste Palette und diese heute Aktuellen “32 Bit“ sind nicht auf Farbe bezogen sonder zusätzliche Steuerungs- Bits worüber man auch den so genannten Alpha Chanel einer Farbe aus dieser möglichen Palette verwaltet.


Ganz vereinfachend versucht dargestellt (das Prinzip), läst sich der Amiga gut her nehmen. :)

Der erste hatte eine Interne Palette von 4096 unterschiedlichen Farben und konnte davon jeweils 32 erwählen, in spezial Modies waren auch noch 64 (EHB) oder gar die gesamte 4096 Farben auf einmal (HAM6), möglich. (die Betonung und das Augenmerk liegt auf einer *festen Palette*)

Und so muss man sich das Denken mit der Technischen Spezifizierungen von Farbräumen.

64Bit währen dann ein Farbspektrum was ne genau (mathematisch sich errechnende), feste Anzahl an Farbtönen, die in diesem vorhanden. Und aus eben jener Palette dann die Hardware für die Ausgabe am Monitor/dem Fernseher Erwählen/zusammenstellen kann/könnte.

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 21:12 Uhr

Maja
Posts: 15429
Nutzer
@L-ED:

> Oh das täte jetzt komplexer werden

Lass Dich nicht dazu hinreissen, mich zu überfordern. :P

L-ED, was Du da schreibst ist mir alles bekannt. Nur bitte entschuldige vielmals, dass ich nun nicht ständig vor dem Bildschirm hocke und bei allem was ich da mache darüber nachdenke, welches mehr an gleichzeitig darstellbaren Farben bei noch mehr Bit möglich wären.

Sag mir doch mal endlich, was ich davon hätte! Zumal noch nicht mal klar ist, ob Du oder ich da überhaupt noch einen Unterschied sehen würden, der nicht nur rein suggestiver Natur wäre. ;)

Okay, 16Bit sieht wirklich Sch.... aus. Zufrieden? :D

Bis hier hin (32Bit) machte die Enwicklung ja noch Sinn. Doch darüber hinaus? Ist das nicht eher nur noch "tiefer, breiter, härter" oder halt das Dilemma der Industrie, das das Rad halt nicht neu erfunden werden kann, man aber trotzdem immer wieder was "Neues" bieten muss, um den Markt am Leben zu erhalten?

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 23:09 Uhr

Bogomil76
Posts: 2800
Nutzer
Zitat:
Original von Maja:

Will heißen, was Techniker aufgrund ihres wissensbedingten Tunneldenkens sagen und was ich als Verbraucher für mich davon noch als real existierendes Problem wahrnehme, sind zwei paar Schuh.

Also; nichts gegen Dich persönlich. Wir sind hier halt nur verschiedener Meinung. Angesichts der Tatsache, dass Du aus meiner Sicht deine Meinung dazu nicht der meinen anpassen musst, ist auch das für mich kein Problem.

> Wenn ein DVB Signal digital vorliegt kein Unterschied.

Ich habe hier kein DVB Signal. Womit wir wieder beim rein subjektiven Empfinden von Problemen sind. Für mich als Kabelempfänger ist LCD-TV derzeit keine Alternative, weil das Bild rein subjektiv mit dem eines Röhrengerätes nicht mithalten kann.


Hi,

also ich bin gar nicht so ein Techniker an sich. Bin Kaufmann und somit handele ich eh im Interesse des Kunden. Ich kenne nur die trechnischen Hintergründe (ziemlich genau, ohne daß es angeberisch klingen soll). Somit wähle ich durchaus andere Kritikpunkte beim Kauf aus. Ich will ja auch gar nicht an altem festhalten. TFTs haben durchaus ihre Berechtigung und werden in Zukunft nur noch verkauft werden.

Dennoch, ich hatte ja nur Deine Frage beantwortet (s.o.). Sachlich faktisch, und Du kommst mit persönlichen Beurteilungen. Mehr wollte ich damit ja nich sagen. Natürlich gibts für Dich Gründe für und wider. Die hat jeder.
Die Vorteile hattest Du und andere ja aufgezählt, somit habe ich ja nur noch die Nachteile aufgezählt. Das ist damit ja nicht automatisch ein Vorteil für CRT (warum machst Du da eigentlich ne Prüfsumme draus?), denn das könnte ja z.T. auch gleichzeitig ein nachteil bei CRTs sein. Nur man muss sich auch Nachteile vor Augen führen, denn es gibt durchaus Leute die das sehen nicht weil sie es technisch wissen, sondern weil sie es wirklich sehen. Und die moppern hinterher, "warum hast Du mir das nicht vorher gesagt?"...

Im Kabelempfang gibts auch DVB, und ausserdem hast Du diese Info ja erst nachträglich gesagt, für andere MIT DVB ist ein LCD eigentlich nicht gut. Plasmas find ich noch schlimmer. Aber nunja, Geschmak ist nunmal verschieden. Mir geht mein Riesenröhrer hier auch aufn Sack, flacher würde mir auch gefallen, mir sind abere andere Punkte eben wichtiger als Dir.

So ;) haste mich verstanden was ich eigentlich sagen wollte?

mfg

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 23:22 Uhr

Bogomil76
Posts: 2800
Nutzer
@L-ED

Nur ne Frage (da bin ich jetzt erstmal wirklich überfragt), denn kurzes googeln brachte mich nur halb weiter http://www.ati.com/de/products/radeonx850/specs.html...

Du redest immer von 256bit Farbtiefe? Sicher das Du nicht die Speicherbandbreite meinst?

mfg

[ - Antworten - Zitieren - Direktlink - ]

11.06.2006, 23:30 Uhr

Maja
Posts: 15429
Nutzer
@Bogomil76:

> warum machst Du da eigentlich ne Prüfsumme draus?

Hehe, das ist jetzt eine guuute Frage. :D

Ich habe keine Ahnung. :glow: :smokin:

>@L-ED
> Du redest immer von 256bit Farbtiefe? Sicher das Du nicht die Speicherbandbreite meinst?

Er redet von 128Bit Farbtiefe.

http://www.nvidia.de/object/feature_cinefx_de.html (unten im letzten Absatz)


[ Dieser Beitrag wurde von Maja am 11.06.2006 um 23:43 Uhr geändert. ]

[ - Antworten - Zitieren - Direktlink - ]

12.06.2006, 00:47 Uhr

Bogomil76
Posts: 2800
Nutzer
Zitat:
Original von Maja:
@Bogomil76:

> warum machst Du da eigentlich ne Prüfsumme draus?

Hehe, das ist jetzt eine guuute Frage. :D

Ich habe keine Ahnung. :glow: :smokin:

>@L-ED
> Du redest immer von 256bit Farbtiefe? Sicher das Du nicht die Speicherbandbreite meinst?

Er redet von 128Bit Farbtiefe.

http://www.nvidia.de/object/feature_cinefx_de.html (unten im letzten Absatz)


Habs gesehen ;) Danke...

[ - Antworten - Zitieren - Direktlink - ]

12.06.2006, 01:17 Uhr

L-ED
Posts: 391
Nutzer

OK hier, Stichwort: warum und wozu ne aufgebohrter Farbpalette über 24/32Bit Technisch nötig und durchaus Sinnvoll (im Sinne eines sichtbaren Mehrgewinns auch für den normal sterblichen Betrachter im Unterhaltungssegment)!

Ein mit u.a. sich mit dem befassender Link zu so ner Freak Seite :look: , die bissel abseits des Main Streams.

Und von daher von der Industrie gar nicht so gern gesehen, und uch nicht mehr so mit Test Samples bedacht werden wie es in der Vergangenheit schon einmal der Fall gewesen war. :sleep:

Sie ihr eben halt nicht zum Munde Reden sondern versuchen Technisch auf den Hintergründen basierend Objektiv zu bleiben (die Technik im Mittelpunkt) ;)

Der lange Weg zum HDR-Rendering

[ - Antworten - Zitieren - Direktlink - ]

12.06.2006, 19:28 Uhr

Maja
Posts: 15429
Nutzer
Zitat: "3D-Grafik ist ein einziger Schwindel. Das beginnt schon beim Begriff selbst: Was wir landläufig 3D-Grafik nennen, ist 2D-Grafik – die Ausgabe auf dem Monitor ist flach."

Eine absolut geniale "Erkenntnis". ;)

Ansonsten lese ich da nichts, was ich nicht anderswo schon gelesen habe. Sorry, das überzeugt mich nicht, Vorhandenes schlecht zu finden und schon gar nicht, keinen TFT zu nutzen.

Wäre ja nett, wenns so weit ist. Aber bis dahin..... :smokin:

[ - Antworten - Zitieren - Direktlink - ]

12.06.2006, 20:20 Uhr

L-ED
Posts: 391
Nutzer
Gelesen vielleicht, aber auch Verstanden? (eigentlich hat sich diese Frage mit Deiner Antwort ja schon erübrigt)

Das sollte weder ein Angriff noch Diskreditierend in irgendeiner Form gemeint sein, niemand kann alles Wissen und innerlichen.

Und es ging nicht mehr primär um die Frage ob nun TFT oder nicht, sondern auf die Frage hin Warum man in der Computergrafik mehr als 24/32Bit wird brauchen.

Dessen wurde hier doch gleichsam zuletzt in abredender Diskussion gestellt, gar noch im Zusammenhang mit dem Menschlichen weiterführenden Wahrnehmungsunvermögen von Farbe. ^^

Wobei aber außer acht gelassen eben der Technische Aspekt (kann passieren, nicht weiter wild, wie gesagt niemand kann sich mit allem ins Detail befassen). Das aber eben für einen Computer Farbspektren anders definiert werden müssen als mit dem menschlichen Erfassen von Farbe! Um letztendlich genau diese dann Abbilden/Wiedergeben zu können!

[ - Antworten - Zitieren - Direktlink - ]

12.06.2006, 20:44 Uhr

Maja
Posts: 15429
Nutzer
@L-ED:

Du wirst es nicht glauben. Ich habs verstanden. Ich bewerte das halt nur ganz anders als Du.

[ - Antworten - Zitieren - Direktlink - ]

21.08.2006, 00:27 Uhr

CarstenS
Posts: 5566
Nutzer
Bild: http://antimateur.de/amd18.jpg

Hm, was meint ihr: Ist einem solchen Die zu trauen? Angeblich ist die CPU funktionstüchtig.


[ - Antworten - Zitieren - Direktlink - ]

21.08.2006, 00:44 Uhr

Maja
Posts: 15429
Nutzer
@CarstenS:

Ist der mal zu heiß geworden oder hat ihn der Fotograf nur nicht sauber gemacht? Anhand dieses Bildes möchte ich jedenfalls keine Aussage machen. Da ist nichts zu erkennen.

[ - Antworten - Zitieren - Direktlink - ]

21.08.2006, 01:58 Uhr

G60Master
Posts: 601
Nutzer
Wäre wirklich besser wenn man nur das DIE mindestens auf 25% der Fläche des Prozessorfotos vergrößert hätte!

So kann das ja alles sein,selbst ein benutztes Kaugummi was da auf dem DIE zu sehen ist wäre möglich!

Zwar sind die meisten DIE-Defekte abgebrochene Ecken,aber es gibt auch noch die Möglichkeit das das Silizium überhitzt ist und kraterig verschmolzen ist! ;)
--
G60Master


A2000|MB6.0|GVP2060|68060-66MHz|64MB|GuruRom 6.14|X-Surf-3|CV64/3D|4MB

A2000|MB4.3|GVP2040|68040-50MHz|64MB|X-Surf-2|P-II+|2MB


A3000D-Towerumbauprojekt in Arbeit,massig Teile gesucht!

[ - Antworten - Zitieren - Direktlink - ]

21.08.2006, 08:54 Uhr

Bogomil76
Posts: 2800
Nutzer
Also ich finde, der sieht gut aus.
Die Ecken sind doch noch alle dran. Das was man so rund drumherum sieht ist kein Die, sondern so gewollte.
Und das ist nur Kühlpaste die nicht abgemacht wurde. Ist auch nicht ganz einfach manchmal das zu schaffen.
Bevor du den aber einbaust solltest Du sie entfernen und neue draufmachen. Und dabei gilt, weniger is mehr ;)

mfg

[ - Antworten - Zitieren - Direktlink - ]

21.08.2006, 08:55 Uhr

CarstenS
Posts: 5566
Nutzer
Danke für eure Meinungen!

[ - Antworten - Zitieren - Direktlink - ]

21.08.2006, 15:14 Uhr

Solar
Posts: 3680
Nutzer
Zitat:
Original von Bogomil76:

Und das ist nur Kühlpaste die nicht abgemacht wurde. Ist auch nicht ganz einfach manchmal das zu schaffen.
Bevor du den aber einbaust solltest Du sie entfernen und neue draufmachen. Und dabei gilt, weniger is mehr ;)


Dabei gilt vor allem, die alte auch sauber abzukriegen. Luft ist ein 1-A Wärmeisolator, und da DIEs sehr punktuell erhitzen, ist ein einschlußfreier Kontakt DIE / Kühlkörper wichtig. Darum nimmt man ja Kühlpaste... aber selbst die besten Pasten taugen nicht, um mehr zu brücken als eine kleine (!!) Unebenheit...

[ - Antworten - Zitieren - Direktlink - ]


1 2 3 -4- 5 [ - Beitrag schreiben - ]


amiga-news.de Forum > Andere Systeme > XP 2500 barton vs. Xp 2800 Barton [ - Suche - Neue Beiträge - Registrieren - Login - ]


.
Impressum | Datenschutzerklärung | Netiquette | Werbung | Kontakt
Copyright © 1998-2024 by amiga-news.de - alle Rechte vorbehalten.
.