Der Begriff »Gamma« in unserem Kontext kommt von einer Eigenheit, die Röhrenmonitore (CRT-Monitore) besitzen. Auf Grund mehrerer physikalischer Gesetze ist die Energiemenge, die bei einer Bildröhre zum Leuchten aufgewendet wird, nicht proportional zur resultierenden Helligkeit. Die Bildröhre verhält sich also nicht »linear«. Diese Nicht-Linearität lässt sich mit einer mathematischen Funktion ausdrücken: Der Gamma-Funktion. Der Gamma-Wert, der in dieser Funktion die Hauptrolle spielt, sagt dabei aus, wie stark die Abweichung im Verlauf des Energieaufwandes zur erzeugten Leuchtdichte ist. Höhere Gammawerte (1-unendlich) bedeuten, dass bei gleicher Energie durchschnittlich geringere Leuchtdichten resultieren, niedrigere Gammawerte (0-1) das Gegenteil. Gamma 1,0 wäre linear.
Typische CRT-Monitore besitzen von sich aus einen Gamma-Wert von 2,2 - 2,5. TFT-Monitore imitieren diesen Gammawert - was sie technisch nicht müssten, was aber nötig ist, um die aktuellen Standards zu erfüllen.
Gamma 2,2 (=Standard auf Windows-PCs und im Web) bedeutet z.B., dass 50% zugeführter Energie am Bildschirm nur ca. 21% Helligkeit erzeugen. Unter Mac OS war lange ein Gamma von 1,8 Standard - hier ergeben 50% Energie ca. 29% Helligkeit.
Wie auch immer der Gammawert eines verwendeten Monitors ist - um Helligkeiten damit richtig darstellen zu können, muss der Computer, der das Bildsignal produziert, davon wissen und die Signalwerte dahingehend korrigieren. Das nennt sich Gammakorrektur.
Unterschiedliche Computer und Betriebssysteme gehen dabei von ihren Standards (z.B. 2,2 oder 1,8) aus. Der Benutzer ist dabei darauf angewiesen, dass der Monitor tatsächlich auch den vom Computer angenommenen Gammawert erfüllt. Für farbkritische Anwendungen werden die Standards nicht genau genug eingehalten. Aus diesem Grund ist hier eine Kalibrierung und ggf. Korrektur des Monitor-Gamma erforderlich, um eine genaue Darstellung der Helligkeitsverteilung zu erhalten.
Nachdem CRT-Monitore (und ihr Gamma) lange Zeit das Maß der Dinge digitaler Farbe darstellten, wurde bei der Spezifikation der Standard-Farbräume (wie z.B. sRGB) beschlossen, deren Gamma-Verhalten zu übernehmen (es gibt auch noch andere Gründe dafür, die ich hier nicht genauer erläutern will). Das bedeutet, dass in einem Gamma 2,2-Farbraum mehr Farbwerte für die dunklen Bildbereiche zur Verfüung stehen, als für die hellen. Als Anwender bemerkt man davon aber nichts, es sei denn, man ändert dieses Bezugssystem z.B. durch die Zuweisung eines Farbraumes mit abweichendem Gamma. Bei Farbkonvertierungen zwischen Farbräumen mit abweichenden Gamma-Werten, werden diese natürlich kompensiert und die Helligkeiten bleiben erhalten.
Druckerfarbräume besitzen ebenfalls »gamma-ähnliche« Nicht-Linearitäten bei der Tonwertübertragung auf das Papier, auch wenn diese andere physikalische Gründe haben als am Monitor (Siehe: Punktzuwachs). Obwohl diese Abweichungen von der idealen, regelmäßigen Tonwertverteilung bei jedem Druckverfahren unterschiedlich sind, kann man im Durchschnitt von einer Gamma 1,8-ähnlichen »Verzerrung» der Werte-Helligkeits-Übertragung sprechen. Das ist auch der Grund, warum auf Apple Macintosh-Computern seit jeher Gamma 1,8 der (künstliche) Monitor-Standard war: Bessere Übereinstimmung mit dem Druckergebnis. Mittlerweile kann man diese Maßnahme als Relikt aus der Vor-Color-Management-Zeit betrachten. Arbeitsfarbräume, die speziell für Druck-Umgebungen geschaffen wurden (z.B. ECI-RGB oder ColorMatch RGB), besitzen aus dem eben erwähnten Grund einen internen Gamma-Wert von 1,8: Er vermindert Informationsverluste bei der Umrechnung der RGB-Farben in den Druckerfarbraum.