amiga-news ENGLISH VERSION
.
Links| Forum| Kommentare| News melden
.
Chat| Umfragen| Newsticker| Archiv
.

amiga-news.de Forum > Forum und Interna > das neue Lila [ - Suche - Neue Beiträge - Registrieren - Login - ]

1 -2- [ - Beitrag schreiben - ]

26.07.2003, 15:55 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von kadi:
Ist es vieleicht eine Sache der Grafikkarte, nicht des Betriebssystems, das zu runden? Meine Graka ist eine GForce2MX.

Möglicherweise bieten Grafikkarten Funktionen an, um die Umrechnung zu beschleunigen, allerdings könnte man dann auch die korrekte Umrechnung machen, angesichts der aktuellen HW fällt der Geschwindigkeitsunterschied kaum ins Gewicht. Allerdings konzentrieren sich die Hersteller mehr auf die 3D-Funktionalität.
Apropos 3D, die Textureengine müßte ja eigentlich Texturen ohnehin in float umrechnen, ich werde mal ein Testprogramm schreiben, das testet, wie die Umrechnung 24Bit->16Bit über Texturen erfolgt.
Zitat:
Wollte ein OS die Fehler ausgleichen, dann müsste es jede Bitmap farbkorrigieren, so wie das auch Software Farbkalibrierungssysteme machen.
Nicht ganz, zum einen müssen 16Bit-Bitmaps natürlich nicht umgerechnet werden, wenn man also als Anwendungsprogrammierer dem OS nicht traut, kann man von Hand umrechnen und das Ergebnis unverfälscht zeichnen lassen. Das habe ich ja zum Testen der verschiedenen Algorithmen auch gemacht.
Zum anderen läßt sich die Umrechnung ohne Farbkalibrierung noch mit integer-Operationen durchführen, spätestens bei der Gamma-Korrektur wird man um floating-point Operationen nicht drumrumkommen.

mfg
--
Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]

26.07.2003, 16:54 Uhr

kadi
Posts: 1528
Nutzer
> Nicht ganz, zum einen müssen 16Bit-Bitmaps natürlich nicht umgerechnet
> werden, wenn man also als Anwendungsprogrammierer dem OS nicht traut, > kann man von Hand umrechnen und das Ergebnis unverfälscht zeichnen
> lassen.

Ja, aber als Anwendungsprogrammierer eines Webbrowsers muss man nicht nur die HTML-Grafik, sondern auch (GIF und JPEG...) Bitmapgrafiken selbst umrechnen, weil ja oft auf Webseiten Hintergrung (HTML-Farben) und GIF Bilder zusammenpassen müssen.

Photoshop macht das übrigens offenbar! Ich habe folgenden Test gemacht:

1 WindowsXP in 24 Bit eigewstellt und mit IE AmigaNews geöffnet (grau).
2 einen Screenshot mit der "Druck" Taste gemacht.
3 Windows auf 16 Bit gestellt (Im IE nun Lila)

4 CorelPhotoPaint geöffnet und mit "Neu aus Zweichenablage" das kopierte 24Bit Bild eingefügt -> Das Bild wird von CorelPhotoPaint *Lila* angezeigt, die Farbwerte werden aber von der Pipette korrekt als 240,240,240 angegeben.

5 Photoshop Elements geöffnet und "datei neu" und Bearb Einfüg" gedrückt um, genau wie in CorelPP, das Bild einzufügen. Der Unterschied, in Photoshop wird das Bild nicht farbverfälscht angezeigt, sondern *grau*.

Fazit, Photoshop regelt die sache warscheinlich mit eigenen besseren Algorithmen.

> Das habe ich ja zum Testen der verschiedenen Algorithmen auch gemacht.
> Zum anderen läßt sich die Umrechnung ohne Farbkalibrierung noch mit
> integer-Operationen durchführen, spätestens bei der Gamma-Korrektur
> wird man um floating-point Operationen nicht drumrumkommen.

Ja, natürlich, Kalibrationssysteme basieren IMO sogar auf Farbtabellen und nicht auf Formeln.

Ich wollte damit eigentlich nur meine Vermutung äußern, das sich die Betriebssysteme (zumindest WinXP, AmigaOS und Linux) sich garnicht selbst um das 16Bit Problem kümmern. Wenn also die Apps das Problem nicht selber lösen und von 24 Bit ausgehen, leitet das System einfach alles ungefiltert an die Hardware weiter, und der Grafikchip muss am Ende auf 16Bit umrechenen. Da ich aber kein Programmierer bin - und keine Ahnung davon habe welche Softwareschichten zwischen Zeichenbefehl und Grafikchip liegen und für was diese verantwortlich sind, sind das nur so wage vermutungen.

Gibts überhaupt ne API für 16Bit Grafik? Wenn ich als Programmierer eine Linie zeichne und die Fabwerte angebe, kann ich die (mit welchem OS auch immer) direkt in 16Bit angeben? Oder nimmt man 24Bit Farben und der Grafikchip rechnet um?

[ - Antworten - Zitieren - Direktlink - ]

26.07.2003, 17:33 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von kadi:
Ja, aber als Anwendungsprogrammierer eines Webbrowsers muss man nicht nur die HTML-Grafik, sondern auch (GIF und JPEG...) Bitmapgrafiken selbst umrechnen, weil ja oft auf Webseiten Hintergrung (HTML-Farben) und GIF Bilder zusammenpassen müssen.

Aber gerade das stellt kein wirklichen Problem dar. Man muß sie nur exakt einmal umrechnen und im Vergleich zur Ladezeit fällt ein aufwendigerer Umrechnungsalgo nicht ins Gewicht.
Zitat:
Fazit, Photoshop regelt die sache warscheinlich mit eigenen besseren Algorithmen.
Verständlich. Gerade ein Grafikprogramm kann es sich ja nicht leisten, falsche Farben anzuzeigen, insb. da der Anwender sich nicht dafür interessiert, welche Softwarekomponenten wirklich daran Schuld ist.
Zitat:
Ja, natürlich, Kalibrationssysteme basieren IMO sogar auf Farbtabellen und nicht auf Formeln.
Kommt darauf an, welche Daten man hat. Wenn man z.B. nur den Gamma-Wert des Monitors geliefert bekommt, hat man erst einmal keine Tabellen, nur eine nicht-lineare Funktion. Allerdings kann man sich Tabellen zur Beschleunigung anlegen, wobei das ziemlich knifflig ist. Je nach Hardware ist der Speicherzugriff auf so eine Tabelle langsamer, als die FP-Berechnung.
Zitat:
Ich wollte damit eigentlich nur meine Vermutung äußern, das sich die Betriebssysteme (zumindest WinXP, AmigaOS und Linux) sich garnicht selbst um das 16Bit Problem kümmern.
Na, AmigaOS sowieso nicht, da sind CGX und P96 für sich selbst verantwortlich. Es ist aber ziemlich sicher, daß zumindest alte Grafikkarten keine beschleunigte Konvertierungsfunktion anbieten.
In diesem Fall ist es natürlich Angelegenheit des Grafiksystems.
Zitat:
Gibts überhaupt ne API für 16Bit Grafik? Wenn ich als Programmierer eine Linie zeichne und die Fabwerte angebe, kann ich die (mit welchem OS auch immer) direkt in 16Bit angeben? Oder nimmt man 24Bit Farben und der Grafikchip rechnet um?
Zumindest gibt es API-Funktionen zum Übertragen eines 16Bit-Puffers zur Grafikkarte. Das andere ist sehr unterschiedlich.
Im Fall von CGX zum Beispiel gibt es für Linien ziehen überhaupt kein 16/24Bit-API, sondern man benutzt die AmigaOS-Funktionen. Und die verwenden die vorher gesetzte Farbe, die je nach Funktion in 12 oder 96 Bit definiert wurde.
Somit ist es eher die Aufgabe, 96Bit-RGB Werte nach 16Bit zu konvertieren. Die bleibt aber CGX überlassen, wenn die Anwendung die Konvertierung selbst vornehmen wollte, müßte sie auch das Linien ziehen selbst implementieren.
Auf andere Systemen sieht natürlich anders aus.
Aber man hat natürlich immer die Option, die Zeichenoperationen mit dem API in einem 24Bit-Puffer zu machen, und diesen dann in einem Rutsch nach 16Bit zu konvertieren.

mfg
--
Good coders do not comment. What was hard to write should be hard to read too.

[ Dieser Beitrag wurde von Holger am 26.07.2003 editiert. ]

[ - Antworten - Zitieren - Direktlink - ]

27.07.2003, 14:34 Uhr

Maja
Posts: 15429
Nutzer
Ich bin keine Fachfrau. Aber lass uns mal ganz weg vom OS als den "Schuldigen". Das kann es nicht sein. Da spielt wohl doch mehr die API die tragende Rolle. Begründung für meinen "Verdacht". Unter WinUAE wird nicht das Grafiksystem von Windows verwendet, sondern Picasso96. Und, unter WinUAE in 16Bit kommt es zu einem noch stärkeren Lilaton, als unter Windows selbst in 16Bit.

Ich vermute demnach die verantwortlichen Routinen in der Grafik-API im Zusammenspiel mit der jeweiligen Hardware.

Kommt das hin oder liege ich da völlig falsch?
--
__________________________________________________

Lebe den Tag!

http://www.jacobs.privat.t-online.de/ (Letzte Änderung: 10.07.03)

[ - Antworten - Zitieren - Direktlink - ]

27.07.2003, 18:30 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von Maja:
Aber lass uns mal ganz weg vom OS als den "Schuldigen". Das kann es nicht sein. Da spielt wohl doch mehr die API die tragende Rolle.

Das API ist ein Teil des OS. Es gibt zwar auch hier zwei unterschiedliche Möglichkeiten, konzeptioneller Fehler oder fehlerhafte Implementierung, aber in beiden Fällen wären die OS-Entwickler die Schuldigen.
Einzige Ausnahme: wenn die durch die Anwendung übergebenen Werte 1:1 an den Grafikkartentreiber weitergereicht werden.
Zitat:
Unter WinUAE wird nicht das Grafiksystem von Windows verwendet, sondern Picasso96.
Unter WinUAE wird das Grafiksystem von Windows verwendet, die Frage ist nur, berechnet Picasso96 die 16Bit-Farbwerte selbst und reicht dann das Resultat an das Windows-Grafiksystem weiter, oder reicht es die Ausgangsdaten an Windows, und läßt Windows dann konvertieren.
Aber klar ist, daß die unterschiedlichen APIs durchaus das Problem verschärfen können. Wenn nämlich ein Amiga-Programm ohne aktive Grafikkartenunterstützung (also weder P96 o. CGX) etwas auf einen public-screen, z.B. Workbench-screen, zeichnen will, muß es einen pen reservieren, der trotz des 16Bit Modus aus einer Palette von maximal 256 Farben ausgewählt wird.
Sind nicht genügend Pens verfügbar, wird also der mit der ähnlichsten Farbe gewählt, das kann ein anderer Grauton oder auch schon ein Farbton mit Verfälschungen, wie Rotstich, sein.
Wenn dieserFarbton dann auch noch fehlerhaft nach 16Bit konvertiert wird...

mfg

--
Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]

29.07.2003, 00:43 Uhr

Maja
Posts: 15429
Nutzer
Zitat:
Original von Holger:
Frage ist nur, berechnet Picasso96 die 16Bit-Farbwerte selbst und reicht dann das Resultat an das Windows-Grafiksystem weiter, oder reicht es die Ausgangsdaten an Windows, und läßt Windows dann konvertieren.


Ich habe dazu mal Toni Wilen (WinUAE Autor) befragt. Hier seine Antwort dazu:

X-Mailer: QUALCOMM Windows Eudora Version 5.2.0.9
Date: Sun, 27 Jul 2003 20:38:53 +0300
To: "d-n-w" <d-n-w@gmx.de>
From: Toni Wilen <twilen@winuae.net>
Subject: Re: grahical question
In-Reply-To: <****************>
Mime-Version: 1.0
Content-Type: text/plain; charset="us-ascii"
X-GMX-Antivirus: -1 (not scanned, may not use virus scanner)
X-GMX-Antispam: 0 (Mail was not recognized as spam)

>Does WinUAE use the Windows' graphics system or does it use P96 for screen
>output or is it that p96 only forwards values to the Windows' API for
>recalculation?

P96 display == Windows DirectDraw surface using exact same bit depth == no color mapping/dithering etc, you get exactly correct colors.
(thats the reason why windowed P96 screen must have same bit depth as Windows desktop)

Amiga native modes map the colors to selected destination bit depth.


--
__________________________________________________

Lebe den Tag!

http://www.jacobs.privat.t-online.de/ (Letzte Änderung: 10.07.03)

[ - Antworten - Zitieren - Direktlink - ]

29.07.2003, 16:30 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von Maja:
Ich habe dazu mal Toni Wilen (WinUAE Autor) befragt. Hier seine Antwort dazu:
Zitat:
...

P96 display == Windows DirectDraw surface using exact same bit depth == no color mapping/dithering etc, you get exactly correct colors.
(thats the reason why windowed P96 screen must have same bit depth as Windows desktop)

Amiga native modes map the colors to selected destination bit depth.


Das heisst, fuer die Falschfarben in WinUAE waere P96/UAE selbst verantwortlich. Heisst aber andererseits auch, dass man die Berechnung verbessern kann, ohne Windows neu programmieren zu muessen:)

mfg

--
Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]

29.07.2003, 18:55 Uhr

ArminHuebner
Posts: 1349
Nutzer
Eure fachlichen Erläuterungen in allen Ehren: Ich glaube, dass sie am eigentlichen Problem vorbeigehen.
Ich habe interessehalber versucht, die Sache nachzuvollziehen, aber:
Es ist mir unter WinUAE mit den verschiedensten P96-Grafikkarten-Einstellungen nicht gelungen, aus dem
Grau etwas zu machen, was im entferntesten an Rosa erinnern würde.
Daher würde ich jedem mit einem Rosa-Farbstich mal empfehlen, nachzusehen, was in der Windows-Farbkorrektur
der Grafikkarte eingestellt ist bzw. ob der Monitor wirklich entsprechend angepasst wurde.

[ - Antworten - Zitieren - Direktlink - ]

29.07.2003, 21:18 Uhr

Maja
Posts: 15429
Nutzer
Zitat:
Original von ArminHuebner:

Es ist mir unter WinUAE mit den verschiedensten P96-Grafikkarten-Einstellungen nicht gelungen, aus dem
Grau etwas zu machen, was im entferntesten an Rosa erinnern würde.


Wie startest du WinUAE? In Fenstermodus auf dem Windows Desktop mit 32Bit?


--
__________________________________________________

Lebe den Tag!

http://www.jacobs.privat.t-online.de/ (Letzte Änderung: 10.07.03)

[ - Antworten - Zitieren - Direktlink - ]

29.07.2003, 21:56 Uhr

ArminHuebner
Posts: 1349
Nutzer
@ Maja

> Wie startest du WinUAE? In Fenstermodus auf dem Windows Desktop mit 32Bit?

Ich muss gestehen, dass ich nicht genau weiß, was Du mit Fenstermodus meinst.
Auf jeden Fall ist Windows auf 1024x768 mit 16 bit eingestellt und Amiga-uaegfx
auf 1024x768 16bit PC. Damit habe ich noch nie Probleme gehabt; und 32 bit
habe ich auch noch nie benutzt bzw. benutzen müssen.

Nachtrag: Habe gerade in den WinUAE-Einstellungen nachgesehen:
Es sind 'Full screen' sowie 'Full screen RTG' angehakt; also läuft WinUAE wohl
nicht im Fenster-Modus.


[ Dieser Beitrag wurde von ArminHuebner am 30.07.2003 editiert. ]

[ - Antworten - Zitieren - Direktlink - ]

30.07.2003, 20:43 Uhr

Maja
Posts: 15429
Nutzer
Zitat:
Original von ArminHuebner:
Nachtrag: Habe gerade in den WinUAE-Einstellungen nachgesehen:
Es sind 'Full screen' sowie 'Full screen RTG' angehakt; also läuft WinUAE wohl
nicht im Fenster-Modus.


Nein, das ist kein Fenstermodus. Den erreichst du, wenn du 'Full screen' und 'Full screen RTG' deaktivierst. Funktioniert nur, wenn Windows mit der gleiche Farbtiefe läuft wie UAE.

Ich verwende die gleichen Einstellungen wie du (Full screen, full RTG, AGA). Bei mir wird in 16bit aus dem grau rosé, sowohl im IE unter Windows als auch in IB2.3 unter AmigaOS (WinUAE) - dort ist der Rosé/Lilaeffekt sogar noch stärker als unter Windows. Und das ist wohl nicht nur bei mir so. Denn andere haben bestätigt, den gleichen Effekt auf ihren Rechnern beobachtet zu haben.

Fazit: Entweder du hast ein absolutes Ausnahmesystem, oder du bist Rotblind und kannst den Farbstich nicht sehen. Verstehe mich bitte nicht falsch. Aber anders kann ich mir das jetzt nicht erklären.



--
__________________________________________________

Lebe den Tag!

http://www.jacobs.privat.t-online.de/ (Letzte Änderung: 10.07.03)

[ Dieser Beitrag wurde von Maja am 30.07.2003 editiert. ]

[ - Antworten - Zitieren - Direktlink - ]

30.07.2003, 21:07 Uhr

ArminHuebner
Posts: 1349
Nutzer
@ Maja

> Fazit: Entweder du hast ein absolutes Ausnahmesystem, ...

Muss wohl so sein ;)

> ... oder du bist Rotblind und kannst den Farbstich nicht sehen.

Ich habe eine Familie, deren 5 Mitglieder in diesem Fall alle eine bisher unentdeckte Augenkrankheit haben müssten...

> Verstehe mich bitte nicht falsch. Aber anders kann ich mir das jetzt nicht erklären.

Ich verstehe dich nicht falsch, aber erklären kann ich es mir ebenso wenig.

[ - Antworten - Zitieren - Direktlink - ]

30.07.2003, 21:23 Uhr

Maja
Posts: 15429
Nutzer
Tja, Armin, ich würd's dir ja so gern zeigen, aber Screenshots online stellen hilft da auch nicht. Auch die würdest du auf deinem Rechner nicht so dargestellt bekommen wie ich hier auf meinem.

Das ist jetzt irgendwie blöd. Aber da scheint sich ein neues Mysterium aufgetan zu haben.

Ich hätte aber noch ein paar Fragen. Weil reizen tut es mich schon. Was kann's denn sein? An irgendwas muss es ja schließlich liegen....

Welche Graka hast du drin? Was für ein Monitor und hast du für den ein spezielles Farbprofil installiert?

Ich habe hier eine Radeon 9700 pro und ein Gericom TFT mit ensprechendem Farbprofil vom Hersteller.

Ich hoffe bloß, dass ich nicht einfach nur überall Rot sehe! :lach:

--
__________________________________________________

Lebe den Tag!

http://www.jacobs.privat.t-online.de/ (Letzte Änderung: 10.07.03)

[ - Antworten - Zitieren - Direktlink - ]

30.07.2003, 22:12 Uhr

midget
Posts: 23
Nutzer
nun hab ich mich durch den ganzen thread gekämpft um zu verstehen worum es geht...

Das hört sich spannend an, aber ich muss Armin recht geben, keine Spur von lila...

das ganze unter AmigaOS3.9, CGX4, PiccoloSD64, AWeb3.4 auf einem TFT SONY SDM-HS53
natürlich in 16Bit :)

evtl. solltet ihr mal nach der Farbtemberatur schauen oder euer Display neu kalibrieren?



zu Risiken und Nebenwirkungen fragen sie ihren Augenarzt oder Monitorhersteller...

[ - Antworten - Zitieren - Direktlink - ]

31.07.2003, 13:16 Uhr

kadi
Posts: 1528
Nutzer
Habt ihr nur so geguckt obs eurer Meinung nach rotstichig ist, oder im Vergleich geschaut?

Wir reden hier nicht von einem krassen Telekom Pink, sondern von einem extrem schwachen Farbstich. Nur ein kaum sichtbarer Hauch von Rot im Grau.

Solch schwache Farbunterschide kann man besser im direkten Vergleich erkennen. Wenn man wie Sprocki jahrelang an einem 32Bit System gesessen hat, und jahrelang auf des Grau von AmigaNews geguckt hat, dann hat sich die Farbe im Gehirn eingebrannt. Wenn man dann umschaltet erkennt man den Unterschied sofort...

...genauso gehts mir IMMER wenn ich meine WB mal von 24 Bit auf 16Bit umschalte, weil dann die GUI und auch das Hintergrundbild auch farblich anders ist. Entweder sind die Farben leicht mangenta- oder grün-stichig, je nach Farbe. Das war früher an meiner CyberVision64-3d so und auch jetzt unter Amithlon.

[ - Antworten - Zitieren - Direktlink - ]

31.07.2003, 14:15 Uhr

kadi
Posts: 1528
Nutzer
Ich dachte mir, damit wirklich jeder das Phänomen ganz genau sehen kann, das ich mal zwei Screenshots mache, einen unter Linux und einen unter Amithlon.

Der Amithlon Screenshot ist folgendermaßen entstanden:

1) Ich habe die WB auf 24Bit gestellt
2) habe einen Screenshot von meiner Workbench gemacht, auf dem IBrowse und AmigaNews zu sehen ist
3) habe die WB auf 16Bit gestellt
4) wieder einen Screenshot gemacht.

In Photogenics habe ich dann die Beiden Shots übereinandergelegt und halbiert.
Auf der Linken Hälfte des Bildes ist also die 16Bit Workbench zu sehen, und auf der rechten Hälfte die 24Bit Workbench.

Man kann also die Farblichen Unterschiede haargenau erkennen und vergleichen.


Amithlon:

http://www.karl-dietrich-bamler.de/stuff/testPicasso.png


Beim Screenshot, der unter Amithlon gemacht ist, fällt auf, das das Weiß des Hintergrundes falschfarbig ist und nicht das Grau. Weil das Weiß grünlich ist, wirkt das Grau auf lange sicht auch Lila.

Linux:

http://www.karl-dietrich-bamler.de/stuff/testxfree.png


Hier ist das Weiß das selbe, aber das Grau ist Lila.


We es immernoch nicht sieht?

Auf einem 16Bit Screen kann man das nicht sehen, da sehen BEIDE Bildhälften gleich aus, aber auf einem 24Bit Screen kann man den Unterschied deutlich erkennen.

Ansonsten zum Augenarzt oder nen besseren Monitor kaufen;-)Amithlon Test Bild

[ - Antworten - Zitieren - Direktlink - ]

31.07.2003, 16:31 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von kadi:
Ich dachte mir, damit wirklich jeder das Phänomen ganz genau sehen kann, das ich mal zwei Screenshots mache, einen unter Linux und einen unter Amithlon.

Leider ist das nicht aussagekraeftig. Wie in diesem Thread schon durchgekaut, gibt es zwei Moeglichkeiten, die Farben zu konvertieren. Ok, es gibt unendlich viele Moeglichkeiten, aber wir haben es hauptsaechlich mit diesen beiden zu tun.
Und das gilt natuerlich auch fuer die Rueckkonvertierung nach 24Bit. Damit sagt also das in 24Bit vorliegende Bild nicht aus, was im 16Bit Modus tatsaechlich zu sehen war, insbesondere wenn beide Screenshots mit unterschiedlich Algorithmen nach 24Bit konvertiert werden.

mfg

--
Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]

31.07.2003, 16:40 Uhr

Holger
Posts: 8116
Nutzer
Nachtrag: Gerade der Gruenton, der weiss sein muesste, zeigt die Schwaechen der Umrechnung. Denn beide in diesem Thread diskutierten Algorithmen liefern fuer die Umrechnung von 24Bit-Weiss nach 16Bit das gleiche Ergebnis. Erst bei der Rueckrechnung liefert der schnelle Algorithmus den fehlerhaften Farbton, weil die unteren Bits auf null gesetzt werden, waehrend der etwas aufwendigere Algorithmus wieder das originale Weiss liefert.
Wenn also nicht P96 unter Amithlon einen dritten, bislang unbekannten Algorithmus verwendet, ist der Gruenstich erst beim Umrechnen des Screenshots nach 24Bit entstanden.

mfg

--
Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]

31.07.2003, 17:15 Uhr

kadi
Posts: 1528
Nutzer
Kann gut sein, das der Grünton im Weiß meines Amithlonscreenshots erst bei der Rückkonvertierung entstanden ist. Denn auf dem originalen 16Bit Screen kann ich kein Grünton erkennen, sondern einen Rosaton im Grauen Bildteil.

Das Lila des Linuxscreens ist aber meiner Meinung nach zimlich genau so sichtbar gewesen, wie es mein Shot zeigt.
Das aber auch dabei eine Rückkonvertierung im Gange ist, klingt nachvollziehbar.

Man kann aber deutlich erkennen wie schwach die Fehlberechnungen sind und ArminHuebner und Midget können vieleicht erahnen worum es geht, sonst halten die die Leute hier im Thread noch für bekifft oder verrückt.

Der 16Bit Screen ist ja auch vor allem dafür gut, Spiele schneller zu machen. Deshalb zählt vieleicht geschwindigkeit vor exakter Farbwiedergabe.

Ist aber auch interessant über was für sinnlose Themen man sich unterhalten kann.

[ - Antworten - Zitieren - Direktlink - ]

31.07.2003, 17:21 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von kadi:
Das Lila des Linuxscreens ist aber meiner Meinung nach zimlich genau so sichtbar gewesen, wie es mein Shot zeigt.

Der entspricht auch den auf anderen Systemen tatsaechlich beobachteten Farben. (abgesehen davon, dass bei der Rueckrechnung abgerundet wurde, aber DAS koennen nun wirklich nur noch Aliens sehen.
Zitat:
Der 16Bit Screen ist ja auch vor allem dafür gut, Spiele schneller zu machen. Deshalb zählt vieleicht geschwindigkeit vor exakter Farbwiedergabe.
Jein.
Wenn ich als Spieleprogrammierer den 16Bit-Modus zur Beschleunigung verwenden wuerde, wuerde ich auch gleich die Farben in 16Bit berechen.
Das ist definitiv schneller, als jede noch so gut optimierte Umrechnungsroutine.

mfg
--
Good coders do not comment. What was hard to write should be hard to read too.

[ Dieser Beitrag wurde von Holger am 31.07.2003 editiert. ]

[ - Antworten - Zitieren - Direktlink - ]

31.07.2003, 19:19 Uhr

Maja
Posts: 15429
Nutzer
Zitat:
Original von kadi:
Ist aber auch interessant über was für sinnlose Themen man sich unterhalten kann.


Jau!! Und das so lange und so ernsthaft. :itchy:



--
__________________________________________________

Lebe den Tag!

http://www.jacobs.privat.t-online.de/ (Letzte Änderung: 10.07.03)

[ - Antworten - Zitieren - Direktlink - ]

01.08.2003, 23:31 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von Maja:
Zitat:
Original von kadi:
Ist aber auch interessant über was für sinnlose Themen man sich unterhalten kann.

Jau!! Und das so lange und so ernsthaft. :itchy:
Im Vergleich zu Threads, wie dem mit dem vielsagenden Namen "Warum Amiga ? - Darum PC !" mit 246 Beiträgen und stattlichen 4268 views ist das doch überhaupt nichts.

mfg
--
Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]

02.08.2003, 01:22 Uhr

Maja
Posts: 15429
Nutzer
Zitat:
Im Vergleich zu Threads, wie dem mit dem vielsagenden Namen "Warum Amiga ? - Darum PC !" mit 246 Beiträgen und stattlichen 4268 views ist das doch überhaupt nichts.

dito :D



--
__________________________________________________

Lebe den Tag!

http://www.jacobs.privat.t-online.de/ (Letzte Änderung: 10.07.03)

[ - Antworten - Zitieren - Direktlink - ]


1 -2- [ - Beitrag schreiben - ]


amiga-news.de Forum > Forum und Interna > das neue Lila [ - Suche - Neue Beiträge - Registrieren - Login - ]


.
Impressum | Datenschutzerklärung | Netiquette | Werbung | Kontakt
Copyright © 1998-2024 by amiga-news.de - alle Rechte vorbehalten.
.