Homepage selbermachen 7.851 Themen, 35.616 Beiträge

Umsetzung von Farben in 16- bzw. 32-Bit-Auflösung

Olaf19 / 15 Antworten / Flachansicht Nickles

Hallo zusammen.

Wieder einmal hat mich das Thema Farben gepackt. Folgendes: Wenn man in HTML eine Farbe, etwa für den Hintergrund definiert, gibt man sie in der Form "FFCC33" an, wobei die ersten beiden Stellen den Rot-Anteil definieren, die mittleren beiden das Grün und die letzten das Blau. Da jeder Farbkanal einen Wert von 00 bis FF = 0 - 255 annehmen kann, stehen demnach 8 bit pro Farbe zur Verfügung - also geht HTML von einer 24-Bit-Farbauflösung aus. Kaum jemand benutzt aber diese Auflösung - die sitzt genau zwischen den Stühlen. Üblich sind entweder 16 oder 32 bit. Die auf 24-Bit-Basis definierte Farbe muß also umgerechnet werden. Wie aber läuft das ab? Bei 16 Bit z.B. hätte ich "knapp fünfeinhalb Bit" pro Farbe zur Verfügung, bei 32 Bit wären es nicht ganz elf - beides nicht der wahre Jakob... weiß jemand etwas darüber?

Danke im voraus für Eure Antworten.

CU
Olaf19

Die Welt ist ein Jammertal ohne Musik. Doch zum Glueck gab es Bach, Beethoven, Haendel und Goethe (Helge Schneider)
bei Antwort benachrichtigen
xafford Jens2001 „Leute lasst euch nicht aufs Glatteis führen!!! KEINE Gafikkarte stellt wirklich...“
Optionen

sorry, daß ich widerspreche, aber die farbdarstellung erfolgt durch den RamDAC und der macht wirklich 2^32 verschiedene farben.
womit du allerdings recht hast ist, daß momentan keine grafikkarte ntern mit 32bit farbgenauigkeit rechnet zum beispiel beim berechnen von 3d effekten.
3dcenter hatte da vor längerem mal einen guten artikel zu, ging damals um sinn/unsinn von interner 32bit genauigkeit bei grafikchips, manche fordern sogar 64bit. das ganze hat einen nicht gleich erkennbaren sinn:
wenn z.b. bei AA verschiedene pixel miteinander verrechnet werden, so kann irgendwann im verlauf der berechnung zum einen der rundungsfehler recht beachtlich werden, zum anderen passiert noch etwas drastischeres, und zwar negative farben, also blöd ausgesprochen dunkler als schwarz udn weißer als weiß (jeder waschmittelhersteller wär glücklich)= ;o)...
nur werden eben diese negativen zwischenergebnisse genullt und mit den genullten zwischenergebnissen weitergerechnet, wodurch einige unschöne effekte entstehen.
deswegen wollen (oder machen sogar) einige grafikchiphersteller auch folgendes: wirklich nur 30 bit nutzen und 2 bits für eine vorzeichendefinition nutzen.
ps: will aber nciht ganz abstreiten, daß es eventuell wirklich karten gibt, deren RamDAC keine 32bit echtfarben darstellt.
pps: mittlerweile ist man aber sogar bei 48bit (aber wohl nur für grafiker interessant, wenn überhaupt)

Pauschalurteile sind immer falsch!!!
bei Antwort benachrichtigen