Ekbert Hering · Rolf Martin (Hrsg.) Photonik
Autoren: Dr. Ralf Bergmann, Robert Bosch GmbH, Kap. 5 Prof. Dr. Rainer Börret, Hochschule Aalen, Kap. 2 Prof. Dr. Günter Dittmar, Hochschule Aalen, Kap. 5 Prof. Dr. Thomas Hellmuth, Hochschule Aalen, Kap. 5 Prof. Dr. Dr. Ekbert Hering, Hochschule Aalen, Kap. 6 Dipl.-Ing. Heinrich Hippenmeyer, Sick AG, Kap. 4 Dr. Frank Höller, Carl Zeiss AG, Kap. 10 Prof. Dr. Alexander Hornberg, Hochschule Esslingen, Kap. 11 Prof. Dr. Albrecht Kettler, Hochschule Aalen, Kap. 5 Prof. Dr. Jürgen Krapp, Hochschule Aalen, Kap. 5 Prof. Dr. Michael Küchel, Hochschule Aalen, Kap. 5 Dipl.-Ing. Matthias Lambertz, Richard Wolf GmbH, Kap. 9 Prof. Dr. Dr. h.c. Rolf Martin, Hochschule Esslingen, Kap. 1, Kap. 8 und Kap. 11 Dr. Christoph Nachtigall, Sick AG, Kap. 4 Prof. Dr. Hans Obermayer, Hochschule Aalen, Kap. 5 Dr. Bernhard Schmitz, DINCERTCO GmbH, Kap. 12 Dipl.-Ing. Volker Schumacher, opsira GmbH, Kap. 7 Prof. Dr. Dr. h.c. Otto Strobel, Hochschule Esslingen, Kap. 3
Ekbert Hering · Rolf Martin (Hrsg.)
Photonik Grundlagen, Technologie und Anwendung
Mit 415 Abbildungen und 50 Tabellen
123
Herausgeber: Professor Dr. Dr. Ekbert Hering Hochschule Aalen Beethovenstraße 1 73430 Aalen Deutschland
[email protected]
Professor Dr. h.c. Rolf Martin Hochschule Esslingen Flandernstraße 101 73732 Esslingen Deutschland
[email protected]
Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.
ISBN-10 3-540-23438-1 1. Aufl. Springer Berlin Heidelberg New York ISBN-13 978-3-540-23438-8 1. Aufl. Springer Berlin Heidelberg New York Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer.de © Springer-Verlag Berlin Heidelberg 2006 Printed in Germany Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, daß solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Sollte in diesem Werk direkt oder indirekt auf Gesetze, Vorschriften oder Richtlinien (z. B. DIN, VDI, VDE) Bezug genommen oder aus ihnen zitiert worden sein, so kann der Verlag keine Gewähr für die Richtigkeit, Vollständigkeit oder Aktualität übernehmen. Es empfiehlt sich, gegebenenfalls für die eigenen Arbeiten die vollständigen Vorschriften oder Richtlinien in der jeweils gültigen Fassung hinzuziehen. Satz und Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig Umschlaggestaltung: medionet AG, Berlin Gedruckt auf säurefreiem Papier 7/3142/YL - 5 4 3 2 1 0
Vorwort
Passend zum Einsteinjahr (100 Jahre Lichtquantenhypothese) und zum 100. Todestag des bedeutenden Optikers Ernst Abbe erscheint dieses Werk. Seit dieser Zeit hat die Erscheinung des Lichts nichts von seiner Faszination und Bedeutung verloren. Im Gegenteil: die optischen Technologien spielen in der Technik und in der Informatik heute und in Zukunft eine wichtige Rolle. In diesem Wachstumsmarkt gilt es, sich zu behaupten. Zu diesem Thema führt das Geleitwort weitere Gedanken aus. Dieses Werk wendet sich an alle Studierende und Praktiker, die das Licht als Produktionsfaktor einsetzen und in diesem Feld lernen, lehren und forschen. Um den Studierenden den Einstieg zu erleichtern, enthalten die Grundlagenkapitel viele Übungsaufgaben mit Lösungen. Das Buch ist darüber hinaus geschrieben, um Interesse und Neugier all derer zu wecken, die das Licht als faszinierende Erscheinung kennen und mehr über seine Anwendungen erfahren möchten. Es existieren bereits viele sehr gute Grundlagenbücher über Optik, aber kaum welche über die Technologien und die Anwendungen von Licht. Diese Lücke will unser Werk schließen. Das erste Kapitel stellt in aller Kürze die wesentlichen Grundlagen der Photonik dar. Im zweiten Kapitel werden die Fertigungsverfahren für optische Komponenten vorgestellt. Das dritte Kapitel behandelt die optische Nachrichtentechnik, das vierte Kapitel die Sensoren und das fünfte Kapitel die optische Messtechnik. Licht wird mit großem Erfolg in der Produktionstechnik eingesetzt. Dies wird im sechsten Kapitel beschrieben. Die Beleuchtungstechnik spielt bei Fahrzeugen und in der täglichen Arbeitsund Lebensumgebung eine immer wichtigere Rolle (Kapitel 7). Die Umwandlung von Licht in elektrische Energie, die Fotovoltaik, wird in Kapitel 8 dargestellt. Optische Technologien spielen in der Medizin und in Life Science eine immer wichtigere Rolle. Dies beschreibt Kapitel 9. Das Kapitel 10 zeigt den Einsatz der Photonik in vielen Gebrauchsgütern. Bildaufnahme und -wiedergabe wird in Kapitel 11 dargestellt. Kapitel 12 zeigt, wie wichtig in photonischen Anwendungen der Augenschutz und die Arbeitssicherheit sind. Die Herausgeber haben in erster Linie den vielen Autoren zu danken. Nur mit deren Fachwissen und deren Erfahrungen war es möglich, dieses umfassende Werk zu erstellen. Auf der Suche nach kompetenten Autoren
VI
Vorwort
wurden wir vom Geschäftsführer der Photonics BW, Herrn Dr. Andreas Ehrhardt erfolgreich unterstützt. Dafür herzlichen Dank. Herzlicher Dank gebührt aber auch den vielen Unternehmen, die uns mit ihrem wertvollen und aussagefähigen Bildmaterial unterstützt haben. Stellvertretend für alle möchten wir Frau Heidi Peters vom Fraunhofer-Institut für Produktionstechnologie IPT, Herrn Dr. Dirk Petring vom FraunhoferInstitut für Lasertechnik ILT, Herrn Ulrich Russek von der Firma Huf Tools GmbH, Herrn Christoph von Arx von der Firma Leister, Herrn Sven Ederer, Herrn Dr. Joachim Hutfless, Herrn Markus Lindenmann und Herrn Dr. Klaus Paray von der Firma TRUMPF Lasertechnik GmbH, Frau Petra Wallenta von der Firma TUI Laser GmbH für ihre Unterstützung danken. Ein solches Werk kann nur gelingen, wenn die Verlagsleitung für eine exzellente Abwicklung und Herstellung sorgt. Dies geschah auch dieses Mal wieder mit großem Erfolg. Zu danken haben wir Frau Eva Hestermann-Beyerle mit ihrem Team vom Springer Verlag. Dankbar sind wir auch unseren Familien. Sie gaben uns die Zeit und den Freiraum, dieses Buch intensiv zu betreuen. Wir wünschen uns viele Leser, die sich vom Phänomen Licht begeistern lassen. Sie mögen spüren und erfahren, wie viel wirtschaftliches, kreatives und faszinierendes Potenzial die Photonik bereit hält. Wir hoffen, dass wir unsere Leser ermuntern können, uns konstruktiv kritisch zu begleiten, um dieses Werk weiter aktualisieren zu können. Aalen, Esslingen im Juli 2005
Ekbert Hering Rolf Martin
Geleitwort
Die optischen Technologien eröffnen unserer modernen Gesellschaft neue Wege in die Zukunft. Die Prognose lautet: Das 21. Jahrhundert wird das Jahrhundert des Photons werden. Die optischen Technologien sind für die Industriegesellschaft notwendige Schrittmachertechnologien. Sie sind branchenübergreifend und weisen eine hohe Wertschöpfung auf. Im englischen Sprachraum spricht man von einer „Enabling Technology“, um deutlich zu machen, dass diese Technologien als Querschnitts- und Schlüsseltechnologien die Grundlage und Voraussetzung für weitere technologische Entwicklungen und Anwendungen in der Zukunft sind. Die optischen Technologien sind als Hochtechnologien nicht nur Innovationstreiber für die Märkte der Zukunft. Schon heute lassen sich 16% der Arbeitsplätze in der verarbeitenden Industrie mittelbar oder unmittelbar den optischen Technologien zuordnen, das sind über eine Million Arbeitsplätze in Deutschland. Der Verein Deutscher Ingenieure (VDI) schätzt, dass in Deutschland in der Herstellung optischer Technologien derzeit 110.000 Menschen beschäftigt sind, die einen Jahresumsatz von 10 Mrd. € erwirtschaften. Licht bietet Möglichkeiten, für die es in der Technikgeschichte keine Vorbilder gibt. Beispiele für diese neuen Chancen sind: Die Herstellung kleinster Strukturen in Computerchips, die Übertragung extrem hoher Datenmengen über Glasfasern für den Info-Highway der Multimediagesellschaft, die rasche Erforschung von Medikamenten für bislang als unheilbar geltende Krankheiten mit optischen Biochips oder die Kontrolle von Lebensmitteln mit optischen Screening-Verfahren. Die optischen Technologien stellen in der heutigen Industrielandschaft eine Innovationsspitze dar, die in fast alle Sektoren abstrahlt und damit für die Märkte von morgen einen Wettbewerbsfaktor ersten Ranges darstellt. Folgerichtig verstärken die maßgeblichen Industrieländer ihre diesbezüglichen Aktivitäten in Wissenschaft, Wirtschaft und Politik. Deutschland, ein Land mit optischer Tradition, kann sich aufgrund der vorhandenen hervorragenden nationalen Infrastrukturen in Industrie und Forschung und deren umsichtiger Förderung international einen Spitzenplatz ausrechnen. Die optischen Technologien umfassen die Gesamtheit aller physikalischen, chemischen und biologischen Naturgesetze und Technologien zur Erzeugung, Verstärkung, Manipulation, Speicherung, Übertragung, Messung und Nutzbarmachung von Licht. In dieser Definition wird die gesam-
VIII
Geleitwort
te Wertschöpfungskette des Lichtes sichtbar: Licht muss in geeigneten Quellen erzeugt werden, es muss zur Anwendung verstärkt, manipuliert, gespeichert und zum Ort der Anwendung übertragen werden. Dort kommt Licht als Fertigungsmittel, als Sicherheitselement oder als Messmethode zum Einsatz. Grundlagen/Lichtquellen Die Grundlagen für die modernen optischen Technologien legte Albert Einstein 1905 und 1917 in seinen Arbeiten über die Quantentheorie der Strahlung. Insbesondere die korpuskularen Wirkungen im UltroviolettBereich (UV) und Extrem-Ultraviolett-Bereich (EUV), im Röntgenspektrum sowie die stimulierte Emission, die zur monochromatischen kohärenten Laserstrahlung führt, sind als bahnbrechende Technologien daraus entstanden und entwickeln sich heute schneller als je zuvor. Forschungsbedarf besteht insbesondere bei der Entwicklung neuartiger und innovativer kohärenter und inkohärenter Photonenstrahlquellen zur Erschließung neuer Zeitbereiche, Spektralbereiche, Funktionalitäten und weiterer Qualitätsmerkmale. Die Beherrschung der Materie auf atomarer und molekularer Ebene sowie die Erforschung und Nutzung der Bausteine des Lebens in zellulärer Umgebung setzen aber auch die Kontrolle von Elementarprozessen im Zeitbereich von 10 Picosekunden bis etwa 1 Femtosekunde voraus. Femtosekundenlaser verfügen hierzu über das notwendige technologische Potenzial. Die Erzeugung bzw. Analyse von Strukturen im Bereich kleiner als 100 Nanometer mit ausreichender Präzision und Genauigkeit erfordert unter anderem die Beherrschung des optischen Spektralbereichs kleiner als 150 nm bis zu 0,1 nm. Forschungsarbeiten im Vakuum-Ultraviolett-Bereich (VUV) richten sich auf Laserstrahlquellen vorwiegend bei 193 nm und neuerdings bei 13 nm für die Lithografie und Nanostrukturierung. Mit nichtlinearen optischen Effekten (NLO) lassen sich relevante Parameter des Lichts wie Wellenlänge, Phase und Polarisation gezielt steuern. Optoelektronische Bauelemente, die aus organischen Molekülen bestehen, sind in den letzten Jahren weltweit erforscht und gebaut worden. Displays auf der Basis sogenannter OLEDs (Organic Light Emitting Diodes) erobern gegenwärtig große Marktanteile und versprechen als Konkurrenz zu etablierten LED (lichtemittierenden Dioden) oder Plasmabildschirmen höhere Farbbrillianz, einen geringeren Energieverbrauch sowie niedrigere Herstellungskosten. Deshalb wurde vom Bundesministerium für Bildung und Forschung (BMBF) im Februar 2005 zusammen mit Unternehmen eine deutsche „OLED-Initiative“ gestartet, in die in einem Zeitraum von fünf Jahren etwa 100 Millionen Euro investiert werden. Dabei geht es um
Geleitwort
IX
die Forschung und Entwicklung von organischen Leuchtdioden (OLEDs) für innovative Beleuchtung und neuartige Displays. Optische Systeme der nächsten Generation Auch in den optischen Systemen bahnt sich ein von den Anwendern dringend gewünschter Generationenwechsel an. Photonenstrahlquellen und Optikkomponenten müssen leistungsfähiger, kompakter, schneller, zuverlässiger und energiesparender werden. Diese Systeme sind eine wichtige Voraussetzung für die Gewinnung von weiterem technischen Neuland mit der Skalierung „Tera“ und „Nano“. In der Tera-Welt kommuniziert man mit Datentransferraten von über 10 Terabit pro Sekunde. Die Grenze des Nano-Kosmos beginnt bei Strukturen kleiner als 0,1 Mikrometer. Wird diese Grenze überwunden, können Computer gebaut werden, die mit 10Gigahertz-Taktraten und Speicherbausteinen im Gigabit-Bereich arbeiten. Dem modernen Optik-Design liegt ein integratives Konzept zugrunde, das alle relevanten Elemente der Wertschöpfungskette zur Herstellung optischer Systeme berücksichtigt. Durch geeignete Kombination der physikalischen Effekte Beugung, Brechung und Reflexion lassen sich maßgeschneiderte optische Komponenten in effiziente, kompakte und robuste Optiksysteme integrieren. Ziel ist eine Verringerung der Anzahl optischer Flächen und die Erweiterung der Funktionsparameter bei geringerem technischen Aufwand als in herkömmlicher Weise. Optische Informations- und Kommunikationstechnik Die derzeit ungebrochene Leistungssteigerung der Chiptechnologie, die von der Mikroelektronik zur Nano-Elektronik führt, basiert auf dem Fortschritt in den optischen Technologien. Die weltweit zunehmenden Datenströme sind ohne optische Technologien nicht zu bewältigen. Die notwendige Steigerung der Datenübertragungskapazität gelingt nur mit optischen Netzen. Die bereits heute in Massenproduktion hergestellten Speicher aus dem allgemeinen Konsumenten- und professionellen Bereich wie CD und DVD basieren auf optischen Technologien. Für CD- und DVD-Geräte rechnet man in den kommenden Jahren mit jährlichen Steigerungsraten von 27% bis 30%. Projektionssysteme haben jährliche Wachstumsraten von 10%. Der Anteil der lichtemittierenden Dioden (LEDs) an diesem Volumen beträgt etwa 5%. In der Datenspeicherung sind die kontinuierliche Erhöhung der Speicherdichte und die Verkürzung der Such- und Zugriffszeiten die größten Herausforderungen. Licht transportiert schon heute mehr als 90% der Datenmengen über das Glasfasernetz der Bundesrepublik. Diese Datenmengen werden in den nächsten Jahren allein durch den Internet-Datenverkehr exponentiell ansteigen. Über Telefon wird in 10 Jahren voraussichtlich nur noch 5% des
X
Geleitwort
gesamten Datenverkehrs laufen. Durch Nutzung der WDM-Technik (Wavelength Division Multiplexing) können künftig über eine einzige Faser einige Terabit/s übertragen werden. Versuchsstrecken mit Übertragungskapazitäten von 3,2 Terabit/s werden derzeit realisiert; das entspricht etwa 40 Millionen Telefonkanälen. Optische Sensorik in Industrie, Medizin und Umwelt Ein großes Anwendungsfeld für optische Sensoren eröffnet sich im persönlichen Umfeld zur Überwachung und Steuerung von Automobilen, Hausgeräten und Sicherheitseinrichtungen. Auch die medizinische Vorsorge wird durch optische Sensorik revolutioniert: die Gesundheitsparameter können in Zukunft zuhause gemessen und die Daten an die vernetzte Arztpraxis übermittelt werden; die optische Analyse auf Bio-Chip-Arrays wird prompt und objektiv die individuellen Gesundheitszustandsdaten erfassen und eine auf den Patienten individuell zugeschnittene und optimierte Therapie ermöglichen. Optische Technologien helfen, neue Erkenntnisse über Entstehung und Heilung der Krankheiten zu gewinnen, insbesondere auf der molekularen Ebene. Damit wird auch eine Basis für die Entwicklung neuer Therapiemethoden und Medikamente geschaffen, die zugleich auch neue Präventionsformen gestattet. Optische Screening-Verfahren etwa beschleunigen die Entwicklung von Medikamenten mit verbesserter Wirksamkeit, die gleichzeitig schneller und kostengünstiger auf den Markt gebracht werden können. Im Operationssaal beispielsweise bieten optische Technologien die Möglichkeit nahezu unblutiger Operationen und es assistieren bei kritischen Operationen optisch navigierte Roboter. Der künftige Einsatz optischer Technologien im Gesundheitssystem, begleitet von neuen Entwicklungen in der Biotechnologie sichert eine leistungsfähige und wirtschaftliche medizinische Versorgung für alle Gruppen der Bevölkerung. Auch die Überwachung von Luft-, Wasser-, Boden- und Lebensmittelqualität und die Schadstoffreduzierung sind dringliche Aufgaben, um unsere Umwelt für uns und die künftigen Generationen gesund und lebenswert zu erhalten. Hierzu liefert die optische Messtechnik schon jetzt einen wesentlichen Beitrag. Messtechnik für optische Komponenten und Systeme Optische Komponenten und Systeme passen die Eigenschaften des Lichts an die unterschiedlichsten Anforderungen der Anwender an. Entsprechende Mess- und Prüfverfahren müssen bereitgestellt werden. Hier werden vorwiegend klassische optische Verfahren wie konfokale Mikroskopie, Wellenfrontanalyse und Interferometrie eingesetzt. Vor allem durch den Trend in Richtung nanostrukturierter Optikkomponenten, beispielsweise
Geleitwort
XI
für die EUV-Lithografie und für die Untersuchungen lebender Zellen müssen neue Messmethoden erforscht werden. Nahfeld- und Fluoreszenzmikroskopie leisten dazu einen bedeutenden Beitrag, da bei diesen Methoden eine Auflösung unterhalb der verwendeten Lichtwellenlänge erreicht wird. Produktionstechnik Moderne Produktionstechniken erhalten die Wettbewerbsfähigkeit und sichern damit Arbeitsplätze in Deutschland. Hier wird das „Werkzeug Licht“ meist in der Form immer leistungsfähigerer Laser in stetig wachsenden Anwendungsfeldern eingesetzt. Die klassische, mechanisch orientierte Fertigung wird durch optische Fertigungstechniken höchster Präzision und Schnelligkeit ergänzt bzw. abgelöst. Mit photonischen Mikrofertigungstechniken lassen sich kleinste integrierbare Bauteile wie Aktuatoren, Sensoren, Pumpen, Düsen oder Mikrooptiken herstellen. Sie lassen sich zu Mikrosystemen immer höherer Komplexität und Intelligenz zusammenfügen und werden in vielfältigsten Bereichen eingesetzt. Die optische Messtechnik übernimmt auch in der Fertigungsmesstechnik heute unentbehrliche Aufgaben an wichtigen Stellen des Produktionsprozesses. Optische Verfahren, die in die Fertigungsprozesse integriert werden, sind ideale Messverfahren, da sie schnell und präzise arbeiten, modular aufgebaut sind und über definierte Schnittstellen zur Elektronik verfügen. Auch im Maschinenbau, in der Kunststoff- und Automobilindustrie kommen bei den Prüfverfahren der Qualitätssicherung immer mehr optische Verfahren zur Anwendung: So werden Teile auf Maßhaltigkeit geprüft, optische Sensoren mit integrierter digitaler Bildverarbeitung zur Steuerung der Fertigung eingesetzt, in der Auto- und Flugzeugindustrie Blechteile auf Oberflächenfehler und Bauteile aus Verbundmaterialien in der Serie geprüft. Optische Technologien haben innerhalb der Automatisierungstechnik Marktanteile zwischen 35% und 70%. Ein wichtiges Wachstumsfeld werden in Zukunft bildverarbeitende Systeme sein mit jährlichen Wachstumsraten zwischen 10% und 20%. Beleuchtung Allein in Deutschland wurden im Jahr 2003 durch Lampen mehr als 40 Mrd. kWh elektrische Energie verbraucht, das entspricht etwa 8% der gesamten elektrischen Energieproduktion (daraus resultierendes Treibhausgas Kohlendioxid: mehr als 26 Mrd. kg/Jahr). Die technische Weiterentwicklungen und Forschung zur Steigerung des Wirkungsgrades bei der Lichterzegung sowie und eine optimierte Systemintegration können erheblich zur Entlastung der Umwelt beitragen. Licht schafft Sicherheit durch verbesserte Scheinwerfer am Kraftfahrzeug mit sensorgesteuerter Lichtverteilung auf der Fahrbahn und macht aktive optische Warnsysteme möglich. Ein
XII
Geleitwort
höheres Beleuchtungsniveau auf Straßen und Plätzen erhöht die Sicherheit erheblich. Die „kalten“ Lichtquellen wie lichtemittierende Dioden wurden bereits mit Erfolg in vielen Städten in Verkehrsampeln installiert. In diesem Anwendungsfeld spielt insbesondere die Fotovoltaik als Wirtschaftsfaktor eine große Rolle. Querschnittsfunktion Den optischen Technologien kommt eine wichtige Querschnittsfunktion bei der Lösung anstehender Aufgaben für die Gesellschaft zu, so etwa in den Bereichen Gesundheit, Umwelt, Verkehr und Mobilität. Sie sind Schrittmacher für andere technologische Entwicklungen und Anwendungen wie die Kommunikations- und Produktionstechnik, die Biotechnologie und die Nano-Elektronik. Wichtig für die Volkswirtschaft in Deutschland ist die Verfügbarkeit der optischen Technologien mit leistungsfähigen Technologieregionen im eigenen Land. Deutschland ist in ausgewählten Bereichen der optischen Technologien bereits an der Weltspitze. Diese Position ist nicht zuletzt ein Ergebnis der Förderpolitik der vergangenen Jahre. Herausragendes Beispiel ist dabei die Materialbearbeitung mit Lasern. Die deutsche Laserindustrie erreichte hier bei den Laserquellen einen Weltmarktanteil von rund 40%. Vor allem in den Bereichen Automobilfertigung und ihrer Zulieferindustrie sind in jüngster Zeit die Einsatzmöglichkeiten merklich gestiegen: im Karosseriebau, bei der Fertigung von Getriebe- und Motorteilen über Katalysatoren bis hin zu moderner Sensorik für Einspritzdüsen. Der verstärkte Einsatz von Lasergeräten im deutschen Automobil- und Maschinenbau trug entscheidend zur deutlichen Verbesserung der Wettbewerbsfähigkeit dieser Branchen in den letzten Jahren bei. Deutschland hat ein enormes Potenzial, auch in anderen Bereichen der optischen Technologien an die Weltspitze vorzudringen. Dabei erfordern immer kürzer werdende Innovationszyklen im internationalen Wettbewerb die frühzeitige Vernetzung unterschiedlicher wissenschaftlicher Disziplinen, um Synergien zu nutzen. Diese Aufgabe erfüllen die Kompetenznetze Optische Technologien, von denen seit dem Jahr 2000 acht vom BMBF gefördert werden. Sie leisten seit rund 4 Jahren wertvolle Arbeit bei der Vernetzung von Wirtschaft und Wissenschaft sowie von Herstellern und Anwendern. Heute sind bereits 111 Forschungseinrichtungen und 230 Unternehmen, die insgesamt 40.000 Beschäftigte repräsentieren, in diesen Netzen organisiert, an deren Finanzierung die Unternehmen selbst zu 50% der Kosten beteiligt sind. Förderung der Forschung und Entwicklung Der industriegeführte Strategieprozess „Optische Technologien für das 21. Jahrhundert“ zur Bildung neuer Innovationsstrukturen hat sich als das
Geleitwort
XIII
passende Werkzeug erwiesen. Jetzt hat Deutschland die Chance – auch vor dem Hintergrund verstärkter Anstrengungen in den USA und Fernost – auf dem Gebiet der optischen Technologien seine Spitzenstellung auszubauen. Die Voraussetzung dazu sind ausreichend gut ausgebildete Spezialisten auf diesem Gebiet. Das Bundesministerium für Bildung und Forschung (BMBF) unterstützt im Rahmen des Förderprogramms „Optische Technologien – Made in Germany“ für die Jahre 2002 bis 2006 diese Ziele mit etwa 280 Millionen Euro auf der Grundlage der Deutschen Agenda, in der weit über 100 Handlungsempfehlungen an Wirtschaft, Wissenschaft und Staat zusammengefasst wurden. Die Handlungsempfehlungen spannen den Bogen von Fragen zur Stärkung der Zusammenarbeit von Wissenschaft und Wirtschaft, zur Förderung von interdisziplinären Netzwerken, zur Stärkung der Grundlagenforschung und der Etablierung eines entsprechenden Dachverbandes für die optischen Technologien bis hin zur Aus- und Weiterbildung. Die Bildung ist eine Zukunftsinvestition. Die optischen Technologien müssen einen festen Platz in den Studiengängen der Ingenieurwissenschaften und in der Berufsausbildung haben. Es besteht erhöhter Bedarf an Fachkräften auf allen Ebenen. Darüber hinaus zeichnet sich in den Betrieben der Bedarf an neuen optikspezifischen Berufsbildern ab. So entstehen neue Berufe, wie der Mechatroniker, der Bachelor oder Master in Präzisionsfertigungstechnik oder der Master of Photonics. Die Nachfrage nach qualifizierten Mitarbeitern wird in Deutschland zunehmen. Einschlägige Aus- und Weiterbildungsangebote müssen auf allen Bildungsebenen ansetzen, um durch gut ausgebildete Fachkräfte die Unternehmen in der anstehenden Wachstumsphase zu unterstützen. Die Erfolgsaussichten für den Standort Deutschland sind vor dem Hintergrund der bestehenden Strukturen sehr gut. Wachstumspotenziale Der Markt für optische Technologien wird in den nächsten 10 Jahren voraussichtlich ein Umsatzvolumen von weltweit mehr als 500 Mrd. € erreichen. Allein die Laserbranche konnte in den letzten 10 Jahren durchschnittlich zweistellige jährliche Wachstumsraten verzeichnen. Bis zum Jahr 2010 rechnen die Unternehmen mit der Schaffung von 15.000 neuen Arbeitsplätzen in den optischen Technologien. Laut einer Studie, erstellt vom Institut für Strukturpolitik und Wirtschaftsförderung und im Auftrag des Bundesbildungsministeriums herausgegeben vom VDI Technologiezentrum, beabsichtigen 90% der befragten 410 OT-Unternehmen mit neuen Produkten und Leistungen ihren Marktanteil zu vergrößern, 78% von ihnen wollen neue Geschäftsfelder erschließen und 60% erwägen eine Firmenerweiterung.
XIV
Geleitwort
Zusammenfassend kann folgendes festgestellt werden: Die Marktchancen für die Anwendungen der optischen Technologien sind sehr groß. In Zeiten einer eher schwachen europäischen Volkswirtschaft gehören sie zu einer der wenigen Wachstumsbranchen. Deshalb werden die optischen Technologien auch in den künftigen Forschungsprogrammen der Europäischen Union eine bedeutende Rolle spielen. Wer heute die Weichen für die optischen Technologien richtig stellt, wird an dem zu erwartenden Wachstum und damit an der Generierung von neuen Arbeitsplätzen teilhaben. Mit der Deutschen Agenda wurde erstmals ein umfassender Strategieprozess zur Gestaltung der Zukunft eines für den Standort Deutschland wichtigen Wirtschaftsgebietes eingesetzt. Der Weg in das „Jahrhundert des Photons“ erfordert dabei in Zukunft erhebliche weitere gemeinsame Anstrengungen von Wirtschaft, Wissenschaft und Politik. Erfolgreiche Innovationsstrukturen bedürfen neben hoher Kompetenz in den Köpfen einer intensiven Zusammenarbeit, Förderung und schneller Umsetzung. Die Wissenschaft liefert die Grundlagen und kreative Anstöße für Innovationen. Die Aufgabe der Wirtschaft ist die Umsetzung von Innovationen in wettbewerbsfähige Produkte oder Verfahren. Der Staat hat die Pflicht, international wettbewerbsfähige Rahmenbedingungen und ein innovationsförderndes Wirtschaftsklima zu schaffen. Wir freuen uns, dass es den Herausgebern und den Autoren gelungen ist, dieses Werk zu verfassen. Es zeigt dem Leser in profunder und anschaulicher Weise die vielen Bereiche und Branchen, in denen photonische Technologien zum Einsatz kommen. Wir wünschen dem Werk viele Leser innerhalb und vor allem auch außerhalb der photonischen Welt. Dr. Andreas Ehrhardt
Dr. Christel Budzinski
Photonics BW e.V., Kompetenznetz Optische Technologien in BadenWürttemberg
Inhaltsverzeichnis
1
Grundlagen ....................................................................................... 1 1.1 Geometrische Optik.................................................................. 1 1.1.1 Lichtstrahlen ............................................................... 1 1.1.2 Reflexion des Lichts ................................................... 2 1.1.3 Brechung des Lichts.................................................... 4 1.1.4 Abbildung durch Linsen ............................................. 9 1.1.5 Matrixmethoden der paraxialen Optik ...................... 16 1.2 Wellenoptik ............................................................................ 23 1.2.1 Elektromagnetische Wellen ...................................... 23 1.2.2 Polarisation ............................................................... 28 1.2.3 Interferenz ................................................................. 36 1.3 Radio- und Fotometrie ........................................................... 56 1.3.1 Strahlungsphysikalische Größen............................... 57 1.3.2 Lichttechnische Größen ............................................ 60 1.4 Quantennatur des Lichts......................................................... 61 1.4.1 Photonen ................................................................... 61 1.4.2 Schwarzer Strahler .................................................... 63 1.4.3 Laser.......................................................................... 66 1.5 Halbleiter-Lichtquellen .......................................................... 70 1.5.1 Strahlende Rekombination........................................ 70 1.5.2 Lumineszenzdioden .................................................. 73 1.5.3 Halbleiter-Laser ........................................................ 77 1.6 Halbleiter-Detektoren............................................................. 91 1.6.1 Absorption in Halbleitern ......................................... 91 1.6.2 Fotoleiter ................................................................... 93 1.6.3 Fotodioden ................................................................ 93 1.7 Literatur................................................................................ 104
2
Fertigung optischer Komponenten und Systeme....................... 2.1 Übersicht .............................................................................. 2.2 Klassische Bearbeitung ........................................................ 2.2.1 Übersicht ................................................................. 2.2.2 Formen (Trennen, Schleifen, Diamantdrehen)........ 2.2.3 Glätten..................................................................... 2.2.4 Messtechnik ............................................................
105 105 107 107 108 111 115
XVI
Inhaltsverzeichnis
2.3
Abformen ............................................................................. 2.3.1 Übersicht................................................................. 2.3.2 Glas abformen (Blankpressen)................................ 2.3.3 Kunststoff abformen ............................................... 2.3.4 Messtechnik ............................................................ Strukturierung ...................................................................... 2.4.1 Diffraktive Optik..................................................... 2.4.2 Lithografie .............................................................. 2.4.3 Abformen ................................................................ 2.4.4 Messtechnik ............................................................ Beschichtung ........................................................................ 2.5.1 Prinzip..................................................................... 2.5.2 Herstellung optischer Komponenten....................... 2.5.3 Bedampfen mit PVD-Verfahren ............................. 2.5.4 Sputter-Technologie................................................ 2.5.5 Abscheiden organmetallischer Lösungen ............... 2.5.6 Messtechnik ............................................................
116 116 117 119 120 121 121 122 123 123 123 123 124 125 126 127 128
Optische Nachrichtenübertragung ............................................. 3.1 Einführung............................................................................ 3.2 Glasfasern............................................................................. 3.2.1 Dämpfung in Glasfasern ......................................... 3.2.2 Dispersionen in Glasfasern ..................................... 3.2.3 Typenklassen von Glasfasern ................................. 3.3 Optische Sender und Empfänger.......................................... 3.4 Faseroptische Übertragungssysteme .................................... 3.4.1 Direktübertragungssysteme..................................... 3.4.2 Kohärente Übertragungssysteme ............................ 3.4.3 Faserverstärker........................................................ 3.4.4 Solitonenübertragung.............................................. 3.4.5 Optische Übertragung auf der Fernebene im Ortsnetz und im LAN- bzw. Metrobereich ........ 3.5 Literatur................................................................................
129 129 131 133 137 146 148 153 153 157 160 162
Sensoren......................................................................................... 4.1 Optische Sensoren ................................................................ 4.2 Lichtschranken und Lichttaster ............................................ 4.2.1 Einweg-Lichtschranken .......................................... 4.2.2 Lichtgitter................................................................ 4.2.3 Reflexions-Lichtschranken ..................................... 4.2.4 Reflexions-Lichttaster............................................. 4.2.5 Lichtleiter-Lichtschranken und -Lichttaster............ 4.2.6 Kontrasttaster .......................................................... 4.2.7 Lumineszenztaster................................................... 4.2.8 Farbsensoren ...........................................................
175 175 175 176 177 179 183 186 188 189 190
2.4
2.5
3
4
165 173
Inhaltsverzeichnis
4.3
Distanzsensoren.................................................................... 4.3.1 Triangulations-Sensoren ......................................... 4.3.2 Pulslaufzeit-Sensoren.............................................. 4.3.3 Phasenkorrelations-Sensoren .................................. Laserscanner......................................................................... 4.4.1 Funktionsprinzip des Laserscanners ....................... 4.4.2 Barcode-Scanner ..................................................... 4.4.3 Laser-Radar............................................................. Kamerasensoren ................................................................... 4.5.1 1-D-Sensoren .......................................................... 4.5.2 2-D-Sensoren .......................................................... 4.5.3 3-D-Sensoren .......................................................... Optische Sensoren für spezielle Anwendungen ................... 4.6.1 Staubkonzentrationsmessung .................................. 4.6.2 Gaskonzentrationsmessung..................................... Literatur................................................................................
191 192 193 194 197 197 204 209 214 216 218 219 223 224 229 231
Optische Messtechnik................................................................... 5.1 Abstandsmessung ................................................................. 5.1.1 Triangulation........................................................... 5.1.2 Inkrementalgeber .................................................... 5.1.3 Interferometer ......................................................... 5.2 Formmessung ....................................................................... 5.2.1 Schattenwurfverfahren ............................................ 5.2.2 Streifenprojektion ................................................... 5.2.3 Weißlichtinterferometrie......................................... 5.3 Verformungsmessung mit der Holografischen Interferometrie...................................................................... 5.4 Spannungs-, Dehnungs-, Kraftmessung ............................... 5.4.1 Spannungsoptische Verfahren................................. 5.4.2 Speckle-Pattern-Interferometrie (ESPI).................. 5.4.3 Faseroptische Sensorik (FOS) zur Spannungsund Dehnungsmessung ........................................... 5.5 Schwingungsmessung .......................................................... 5.5.1 Laser-Doppler-Vibrometer ..................................... 5.5.2 Holografische Interferometrie und Speckle-Pattern-Interferometrie....................... 5.6 Temperaturmessung ............................................................. 5.7 Feuchtemessung ................................................................... 5.8 Farbmessung......................................................................... 5.9 Interferometrische Submikrometer-Messtechnik in der Automobilindustrie .................................................... 5.9.1 Stand und Entwicklung der Messtechnik................ 5.9.2 Weißlichtinterferometrie (WLI)..............................
233 233 234 236 238 239 239 241 243
4.4
4.5
4.6 4.7 5
XVII
245 248 248 249 249 252 252 255 256 260 260 263 263 264
XVIII
Inhaltsverzeichnis
5.9.3 5.9.4 5.9.5
Weißlichtinterferometrie mit Sonderoptiken .......... Weißlicht-Heterodyn-Interferometer (WHI)........... Rückführung der Weißlichtinterferometrie auf amtliche Normale.............................................. 5.10 Zusammenfassung und Ausblick ......................................... 5.11 Literatur................................................................................ 6
7
Produktionstechnik ...................................................................... 6.1 Übersicht .............................................................................. 6.1.1 Laserstrahlquellen ................................................... 6.1.2 Strahlqualität........................................................... 6.1.3 Fertigungsverfahren und Materialien...................... 6.2 Urformen .............................................................................. 6.2.1 Selektives Laser-Sintern (SLS)............................... 6.2.2 Selektives Laser-Schmelzen (SLM: Selective Laser Melting) ............................. 6.3 Umformen ............................................................................ 6.4 Trennen ................................................................................ 6.4.1 Schneiden................................................................ 6.4.2 Bohren und Abtragen.............................................. 6.5 Fügen.................................................................................... 6.5.1 Schweißen ............................................................... 6.5.2 Löten ....................................................................... 6.6 Beschichten .......................................................................... 6.7 Stoffeigenschaften ändern .................................................... 6.7.1 Härten...................................................................... 6.7.2 Umschmelzen.......................................................... 6.7.3 Polieren ................................................................... 6.8 Markieren und Beschriften................................................... 6.9 Strukturieren und Mikrobearbeiten ...................................... 6.10 Produktentwicklung mit Laser ............................................. 6.11 Literatur................................................................................ Beleuchtungstechnik..................................................................... 7.1 Einleitung ............................................................................. 7.2 Lichttechnische Größen........................................................ 7.3 Optische Systeme zur Beleuchtung...................................... 7.3.1 Beleuchtungssystem aus Lichtquellen und Reflektor .......................................................... 7.3.2 Beleuchtungssystem aus Lichtquelle und Linse ..... 7.3.3 Arbeitsplatzleuchte ................................................. 7.3.4 Kraftfahrzeug-Frontbeleuchtung............................. 7.3.5 Operationsleuchten (OP-Leuchten) ........................ 7.3.6 Lichtleiter für Beleuchtung .....................................
266 272 278 280 281 283 283 283 287 290 291 291 292 293 294 294 298 298 298 304 305 307 307 308 309 309 311 313 316 317 317 318 320 320 322 322 326 328 331
Inhaltsverzeichnis
7.4
XIX
Optische Systeme zur Signalisation ..................................... 7.4.1 Straßenverkehrsignal (Ampel) ................................ 7.4.2 Fahrzeug-Signalleuchten......................................... Optische Systeme für Informationsträger............................. 7.5.1 Beleuchtetes Bedienelement ................................... 7.5.2 Lichtleiter zur Hinterleuchtung von Displays ......... 7.5.3 Lichtleiter zur Hinterleuchtung von Statusanzeigen.................................................. Simulation in der Beleuchtungstechnik................................ 7.6.1 Simulationsprogramme für Entwicklung optischer Systeme ................................................................... 7.6.2 Modellbildung für die optische Simulation ............ 7.6.3 Auswertungen der optischen Simulation ................ Literatur................................................................................
333 333 335 336 336 338
8
Fotovoltaik..................................................................................... 8.1 Wirkungsweise der Solarzelle .............................................. 8.2 Wirkungsgrad ....................................................................... 8.3 Technologie.......................................................................... 8.4 Literatur................................................................................
351 351 355 357 359
9
Optische Technologien in Medizin und Life Sciences ............... 9.1 Spektroskopie ....................................................................... 9.1.1 Absorptionsspektroskopie....................................... 9.1.2 Fluoreszenzspektroskopie ....................................... 9.1.3 Molekülschwingungsspektroskopie ........................ 9.1.4 Beispiele weiterer spektroskopischer Methoden..... 9.2 Streuung von Licht ............................................................... 9.2.1 Remissionsfotometrie zur Bestimmung von Glucose ............................................................ 9.2.2 Durchflusszytometrie .............................................. 9.2.3 Optische Kohärenztomographie.............................. 9.3 Optische Mikroskopie .......................................................... 9.3.1 Übersicht ................................................................. 9.3.2 Auflösung, Schärfentiefe und förderliche Vergrößerung .......................................................... 9.3.3 Köhler’sche Beleuchtung und Kontrastverstärkung ......................................... 9.3.4 Fluoreszenzmikroskopie ......................................... 9.3.5 Laser-Scanning-Mikroskopie.................................. 9.3.6 Laserpinzette und Laser-Mikromanipulation.......... 9.3.7 Operationsmikroskopie ........................................... 9.4 Endoskopie ........................................................................... 9.4.1 Einführung .............................................................. 9.4.2 Endoskopie-System.................................................
361 361 363 364 368 370 371
7.5
7.6
7.7
339 340 340 342 348 349
372 373 374 375 375 376 377 379 380 382 384 384 384 385
XX
Inhaltsverzeichnis
9.4.3 Endoskopische Bildgebung..................................... 9.4.4 Ausführungsformen medizinischer Endoskope ...... Laseranwendungen in der Medizin ...................................... 9.5.1 Einführung .............................................................. 9.5.2 Wirkungsmechanismen........................................... 9.5.3 Laseranwendungen ................................................. Literatur................................................................................
388 391 394 394 395 397 403
Gebrauchsgüter ............................................................................ 10.1 Bildaufnahme ....................................................................... 10.1.1 Analoge Fotokamera............................................... 10.1.2 Digitale Fotokamera ............................................... 10.1.3 Handycam und Webcam ......................................... 10.1.4 Camcorder............................................................... 10.1.5 Flachbettscanner, Fotokopierer, Fax....................... 10.2 Vergrößerungsgeräte ............................................................ 10.2.1 Mikroskop............................................................... 10.2.2 Lupe ........................................................................ 10.2.3 Teleskop.................................................................. 10.3 Bildwiedergabe .................................................................... 10.3.1 Analoge Projektoren ............................................... 10.3.2 Digitale Projektoren ................................................ 10.3.3 Head Mounted Devices (HMD) und Head Up Displays (HUD) ................................ 10.3.4 Zusammenfassung ..................................................
405 406 406 407 407 409 410 412 412 413 415 417 417 418
9.5
9.6 10
11
421 422
Bildaufnahme und -wiedergabe.................................................. 423 11.1 Halbleiterbildsensoren und digitale Kameras....................... 423 11.1.1 Geometrische Eigenschaften eines Bildsensors...... 423 11.1.2 CCD-Sensor ............................................................ 427 11.1.3 Architektur eines CCD............................................ 434 11.1.4 Eigenschaften eines CCD-Imagers ......................... 438 11.2 Kamera-User-Interface......................................................... 447 11.3 Bildverarbeitung................................................................... 448 11.3.1 Elementare Eigenschaften digitaler Bilder ............. 449 11.3.2 Punktoperationen .................................................... 450 11.3.3 Nachbarschaftsoperation......................................... 453 11.3.4 Diskrete Fourier-Transformation ............................ 457 11.4 Bildwiedergabe – Displays................................................... 463 11.4.1 Flüssigkristall-Displays........................................... 464 11.4.2 OLED-Displays ...................................................... 474 11.5 Literatur................................................................................ 478
Inhaltsverzeichnis
12
Augenschutz und Augensicherheit.............................................. 12.1 Notwenigkeit für Augenschutz............................................. 12.1.1 Aufbau des Auges ................................................... 12.1.2 Optische Strahlung - Begriffsbestimmung.............. 12.1.3 Expositionsgrenzwerte............................................ 12.1.4 Lichttransmission und Grenzwerte bei der Prüfung von Augenschutzprodukten....................... 12.2 Varianten im Augenschutz ................................................... 12.2.1 Schutz vor mechanischer Gefährdungen................. 12.2.2 Chemische Gefährdungen ....................................... 12.2.3 Thermische Gefährdungen...................................... 12.2.4 Biologische Gefährdungen...................................... 12.2.5 Elektrische Gefährdungen....................................... 12.2.6 Arten von Augen- und Gesichtsschutz.................... 12.2.7 Komponenten eines Augenschutzgerätes und Einsatzfelder .................................................... 12.2.8 Schutz vor optischer Strahlung ............................... 12.3 Zwei besondere Arten von Augen- und Gesichtsschutz....... 12.3.1 Automatische Schweißerschutzfilter....................... 12.3.2 Laserschutzfilter...................................................... 12.4 Das Regelwerk - Konformität und Normung im Augenschutz.................................................................... 12.4.1 Gesetzesgrundlage Richtlinie und GPSG ............... 12.4.2 CE-Zeichen ............................................................. 12.4.3 GS-Zeichen / DIN-Qualitätszeichen ....................... 12.5 Normung Augenschutz......................................................... 12.5.1 Europäisch harmonisierte Normen.......................... 12.5.2 BGI Informationen und Regeln .............................. 12.5.3 Kennzeichnung von Augenschutzgeräten ............... 12.5.4 Kennzeichnung von Sichtscheiben und Filterscheiben................................................... 12.5.5 Schutzstufen............................................................ 12.5.6 Optische Klasse....................................................... 12.5.7 Mechanische Festigkeit........................................... 12.5.8 Andere Anforderungen ........................................... 12.5.9 Kennzeichnung von Tragkörpern............................ 12.5.10 Kennzeichnung von vollständigen Augenschutzgeräten ................................................ 12.5.11 Benutzung von Augenschutzgeräten....................... 12.6 Literatur................................................................................
XXI
479 480 480 482 483 484 485 486 487 487 487 488 488 488 489 490 490 492 496 496 498 499 500 500 501 502 502 502 503 503 504 504 508 508 508
Index .............................................................................................. 511
1 Grundlagen
Einführung Die Optik als Lehre von den Lichterscheinungen ist eine sehr alte Wissenschaft. Trotzdem wurde erst in der zweiten Hälfte des 19. Jahrhunderts insbesondere von Maxwell erkannt, dass Licht eine transversale elektromagnetische Welle ist, also eine physikalische Erscheinung, bei der sich gekoppelte elektrische und magnetische Felder mit Lichtgeschwindigkeit ausbreiten. Diese Wellenoptik (Abschn. 1.2) ist eine besonders adäquate Beschreibung, wenn die physikalischen Phänomene der Interferenz, Beugung und Polarisation behandelt werden. Sind die Abmessungen der Bauelemente (Linsen, Spiegel, Lochblenden etc.) groß im Vergleich zur Wellenlänge des Lichts, dann spielen Beugungseffekte keine Rolle und die Ausbreitung des Lichtes lässt sich mit den Gesetzen der geometrischen Optik oder Strahlenoptik (Abschn. 1.1) beschreiben, die lange vor der Wellenoptik bekannt waren. Um die Wende vom 19. zum 20. Jahrhundert wurde die energetische Wechselwirkung von Licht und Materie untersucht. Die Emission und Absorption von Licht war mit den Gesetzen der klassischen Elektrodynamik nicht erklärbar und führte Einstein zur Aufstellung seiner Lichtquantenhypothese (Abschn. 1.3). Licht wird darin als ein Strom von Lichtquanten oder Photonen beschrieben, wobei jedes Quant eine diskrete Energie transportiert und bei der Wechselwirkung mit Materie an diese abgeben kann. Licht zeigt also je nach Art des Experiments Wellen- oder Teilcheneigenschaften, was mit dem Begriff Welle-Teilchen-Dualismus belegt wurde. In der Quantenelektrodynamik wurde eine theoretische Beschreibung gefunden, die beide Aspekte vereinigt.
1.1 Geometrische Optik 1.1.1 Lichtstrahlen Die Ausbreitung des Lichts kann durch Strahlen beschrieben werden. Strahlen sind Normalen auf Wellenflächen (Flächen konstanter Phase) der elektromagnetischen Welle (Abb. 1.1). Lichtstrahlen breiten sich in einem
2
1 Grundlagen
homogenen und isotropen Medium geradlinig aus. Der Pfeilrichtung an einem Strahl kommt keine besondere Bedeutung zu, denn der Lichtweg ist grundsätzlich umkehrbar. Trifft ein Lichtstrahl auf eine Grenzfläche, die zwei verschiedene Medien voneinander trennt, dann kommt es zur Reflexion (Abschn. 1.1.2) und Brechung (Abschn. 1.1.3) des Strahls.
Abb. 1.1. Strahlen und Wellenflächen, a) Kugelwellen, b) ebene Wellen
1.1.2 Reflexion des Lichts
Abb. 1.2. Reflexionsgesetz
Trifft ein Lichtstrahl auf eine spiegelnde Fläche, so wird der Strahl reflektiert (Abb. 1.2). Es gilt das Reflexionsgesetz: Einfallender Strahl, reflektierter Strahl sowie die Normale auf die Fläche durch den Auftreffpunkt liegen in einer Ebene; der Einfallswinkel H und der Reflexionswinkel Hr sind betragsmäßig gleich groß. Wendet man die in der technischen Optik üblichen Vorzeichenregeln nach DIN 1335 an, so ist H > 0 und Hr < 0 und es gilt das Reflexionsgesetz
Hr
H .
(1.1)
1.1 Geometrische Optik
3
Das Reflexionsgesetz lässt sich aus einem sehr fundamentalen Extremalprinzip der Physik herleiten, dem Fermat´schen Prinzip: Der Weg eines Lichtstrahls zwischen zwei Punkten A und B ist immer so, dass die Zeit, die das Licht zur Überwindung der Strecke benötigt, ein Extremum (meist Minimum) ist. Aus Abb. 1.2 b) wird ohne jede Rechnung klar, dass der Weg zwischen den Punkten A und B über P der kürzeste ist. B´ liegt spiegelsymmetrisch zu B, und die Verbindung APB´ ist eine Gerade. Alle anderen Wege wie z.B. AQB bzw. AQB´ sind länger. Bildentstehung beim sphärischen Spiegel
Abb. 1.3. Abbildung eines Objektpunktes O auf der optischen Achse eines Hohlspiegels
Abbildung 1.3 zeigt einen leuchtenden Objektpunkt O auf der Symmetrieachse (optische Achse) eines sphärischen Hohlspiegels. Der Krümmungsmittelpunkt des Spiegels ist der Punkt C. Treffen sich alle von O ausgehenden Strahlen nach der Reflexion am Spiegel wieder in einem Punkt O´, so ist dies der Bildpunkt. Zur Auffindung diese Punktes genügt es, wenn der Schnittpunkt von zwei Strahlen bestimmt wird. Ein Strahl, der längs der optischen Achse ausgesandt wird, fällt nach der Reflexion am Scheitel S in sich selbst zurück. Ein anderer Strahl wird im Punkt A reflektiert und schneidet die optische Achse im Bildpunkt O´. Durch Anwendung elementarer trigonometrischer Sätze ergibt sich eine Verknüpfung zwischen der Gegenstandsweite a, der Bildweite a´ und dem Krümmungsradius r des Spiegels:
1 1 ac a
2 . r
(1.2)
Die Strecken sind nach DIN 1335 vorzeichenrichtig einzusetzen: Alle Strecken, die vom Scheitel nach links weisen, bekommen ein negatives
4
1 Grundlagen
Vorzeichen, solche, die nach rechts weisen, ein positives. Die Gl. (1.2) enthält Näherungen. Sie ist nur richtig, wenn die Strahlen nahe an der optischen Achse verlaufen und wenn die Neigungswinkel bezüglich der optischen Achse klein sind. Derartige Strahlen werden als Paraxialstrahlen bezeichnet. Die paraxiale Optik oder Gauß´sche Optik wurde von C.F. Gauß entwickelt. Wenn die Lichtquelle O im Unendlichen sitzt, fällt ein paralleles Strahlenbündel in den Spiegel. Für a = f liefert Gl. (1.2) a´ = r/2. Das bedeutet, dass alle Parallelstrahlen (so lange sie paraxial sind) sich in einem Bildpunkt treffen. Dieser Punkt wird als Brennpunkt F´ bezeichnet und die zugehörige Entfernung vom Scheitel als Brennweite f c . Damit gilt beim sphärischen Spiegel die Abbildungsgleichung
1 1 ac a
1 , mit f c fc
r . 2
(1.3)
Die Richtungsumkehr der Lichtstrahlen stört beim Durchrechnen optischer Systeme, die Spiegel enthalten. Aus diesem Grund wird häufig der aufgefaltete Strahlengang benutzt (Abb. 1.3). Der reflektierte Strahl AO´ wird an der Tangentialebene durch den Scheitel S gespiegelt und schneidet die optische Achse im Bildpunkt O´auf. Bei aufgefaltetem Strahlengang gilt die Abbildungsgleichung
1 1 c aauf a
1 c , mit f auf c f auf
r . 2
(1.4)
1.1.3 Brechung des Lichts Licht bewegt sich in verschiedenen Medien mit verschiedenen Geschwindigkeiten. Ist die Lichtgeschwindigkeit in einem bestimmten Medium c und die Lichtgeschwindigkeit im Vakuum c0, dann wird das Verhältnis n
c0 c
(1.5)
als Brechungsindex oder Brechzahl des betreffenden Materials bezeichnet, mit n > 1. Läuft nun eine Lichtwelle schief auf eine Grenzfläche zu, die zwei Medien mit den Brechzahlen n1 und n2 voneinander trennt, dann ändert die Lichtwelle ihre Richtung, sie wird gebrochen. Die zugehörigen Strahlen erleiden an der Grenzfläche einen Knick (Abb. 1.4).
1.1 Geometrische Optik
5
Abb. 1.4. Zur Ableitung des Brechungsgesetzes aus dem Fermat´schen Prinzip
Das Brechungsgesetz beschreibt den Zusammenhang zwischen den Winkeln H1 und H2 sowie den Brechzahlen n1 und n2. Es kann aus dem Fermat´schen Prinzip (Abschn. 1.1.2) hergeleitet werden. Die Zeit, die das Licht benötigt, um von einem Punkt A zu einem Punkt B zu gelangen, ist gegeben durch ein Linienintegral längs des Strahls: B
t
³
A
B
ds c
1 n ds , c0
³
A
wobei der Brechungsindex n im allgemeinen vom Weg abhängt. Das Integral B
l
³ n ds
(1.6)
A
wird als optischer Weg bezeichnet. Soll nach Fermat die Zeit, die das Licht benötigt, um von A nach B zu kommen, minimal sein, dann muss auch der optische Weg ein Minimum aufweisen: B
l
³ n ds
Min!
A
In Abb. 1.4 läuft der Lichtstrahl von A ausgehend zunächst in einem Medium mit Brechzahl n1, trifft bei P auf die Grenzfläche und läuft dann unter einem anderen Winkel im Medium mit der Brechzahl n2 weiter nach B. Der optische Weg ist l
n1 xP2 yA2 n2
xB xP 2 yB2 .
6
1 Grundlagen
Er besitzt ein Extremum (Minimum), wenn dl/dxP = 0. Ableiten und Nullsetzen liefert: n1
xP xP2
yA2
n2
x B xP xB xP 2 yB2
0
oder
n1 sin H1
n2 sin H 2 .
(1.7)
Dies ist das bekannte Snellius´sche Brechungsgesetz. Dispersion Die Lichtgeschwindigkeit in einem Medium ist im allgemeinen nicht konstant, sondern hängt von der Wellenlänge O ab. Damit ist auch der Brechungsindex nicht konstant, sondern von der Wellenlänge bzw. Farbe abhängig. Diesen Effekt bezeichnet man als Dispersion. Die Dispersion führt beispielsweise dazu, dass Licht mithilfe eines Prismas in seine Spektralfarben zerlegt werden kann (Abb. 1.5).
Abb. 1.5. Dispersion, a) Ablenkung verschieden farbiger Lichtstrahlen an einem Prisma, b) Brechungsindex von Quarzglas, berechnet mit der Sellmeier-Gleichung
Zur Charakterisierung der Dispersion dient die Abbe-Zahl
Qd
nd 1 . n F nC
(1.8)
Die Indizes beschreiben verschiedene Spektrallinien, die in Tabelle 1.1 zusammengestellt sind.
1.1 Geometrische Optik
7
Tabelle 1.1. Bezeichnung einiger Spektrallinien nach Fraunhofer Wellenlänge O/nm 486,133 587,762 656,273
Bezeichnung F d C
Herkunft blaue Wasserstofflinie gelbe Heliumlinie rote Wasserstofflinie
Bei geringer Dispersion ist die Abbe-Zahl groß. Gläser mit Qd > 50 heißen Krongläser, solche mit Qd < 50 Flintgläser. Der Glashersteller Schott liefert Diagramme, in denen für jede Glassorte der Brechungsindex in Abhängigkeit von der Abbe-Zahl angegeben ist, so dass der Anwender ein für seine Zwecke passendes Glas auswählen kann. Tabelle 1.2 zeigt die Daten einiger Stoffe. Die Glassorte wird mit einer sechsstelligen Code-Nummer charakterisiert: xxxyyy, wobei xxx = (nd – 1) 1000 und yyy = Qd 10. Tabelle 1.2. Brechungsindex und Abbe-Zahl einiger Substanzen Stoff Fluorkronglas FK 5 Quarzglas Borkronglas BK 7 Flintglas F 2 Schwerflintglas SF 6 Luft (trocken, bei 20 qC und 1013,25 hPa) Ethylalkohol C2H5OH Wasser Benzol C6H6 Schwefelkohlenstoff CS2
nd 1,48749 1,45846 1,51680 1,62004 1,80518 1,000277 1,3618 1,333041 1,50155 1,62804
Qd 70,41 67,82 64,17 36,37 25,43 89,3 55,8 55,6 30,1 18,4
Code 487704 458678 517642 620364 805254
Beispiel: Das Glas mit der Code-Nummer 643480 hat die Brechzahl nd = 1,643 und die Abbe-Zahl Qd = 48. Es handelt sich um BaF 9. Der Dispersionsverlauf n(O) kann auch analytisch in Form einer Reihenentwicklung angegeben werden. Dabei wird entweder eine Potenzreihe der Form
n2
A0 A1O2 A2O2 A3O4 A4O6 A5O8
(1.9)
benutzt, wobei die Koeffizienten dem Schott-Glaskatalog entnommen werden können oder die Sellmeier-Gleichung (Abb. 1.5 b)
n 2 1 B1
O2 O2 C1
B2
O2 O2 C2
B3
O2 O2 C3
.
(1.10)
8
1 Grundlagen
Totalreflexion
Abb. 1.6. Zum Entstehen der Totalreflexion
Wenn ein Lichtstrahl aus einem optisch dichteren Medium in ein optisch dünneres übergeht, dann wird der Strahl vom Lot weg gebrochen (Abb. 1.6). Neben dem gebrochenen gibt es immer auch einen reflektierten Strahl. Abb 1.6 zeigt, dass es einen kritischen Winkel Hg gibt, für den der Austrittswinkel 90 q wird. Für Winkel H > Hg gibt es keinen durchgehenden Strahl mehr, sondern nur noch den reflektierten. Man spricht in diesem Fall von Totalreflexion. Der Grenzwinkel der Totalreflexion ergibt sich mithilfe des Snellius´schen Brechungsgesetzes
n1 sin H g
Hg
n2 sin 90D
n2 zu
§n · arcsin ¨¨ 2 ¸¸ . © n1 ¹
(1.11)
Eine wichtige Anwendung der Totalreflexion ist die Führung von Lichtwellen in Lichtwellenleitern. Ein Lichtwellenleiter besteht aus einem zylindrischen Kern, der von einem Mantel mit niedrigerer Brechzahl umgeben ist (Abb. 1.7). Bei der Stufenindexfaser hat das Brechzahlprofil die Form einer Stufe. Wird der eingezeichnete Strahl an der Kern-MantelGrenzfläche unter dem Winkel Hg total reflektiert, dann ist der Winkel an der Stirnfläche D 90°Hg. Durch Anwendung des Snellius´schen Brechungsgesetzes Gl. (1.7) ergibt sich für den maximalen Öffnungswinkel 4, der auch als Akzeptanzwinkel der Faser bezeichnet wird,
sin 4
AN
n12 n22 .
(1.12)
Der Sinus des Öffnungswinkels optischer Systeme heißt auch numerische Apertur AN.
1.1 Geometrische Optik
9
Abb. 1.7. Lichtwellenleiter, a) Stufenindexfaser, b) Gradientenfaser
Weil Strahlen, die unter verschiedenen Neigungswinkeln durch die Faser laufen, verschiedene Laufzeiten aufweisen, ist die Datenübertragung mit hoher Bitrate nicht möglich (Kap. 2). Wesentlich günstiger sind Fasern mit kontinuierlich variierender Brechzahl, so genannte Gradientenfasern (Abb. 1.7 b). Bei einem parabolischen Profil des Brechungsindex verlaufen die Strahlen sinusförmig. Obwohl der geometrische Weg für die weiter außen verlaufenden Strahlen groß ist, ist der optische Weg für alle Strahlen gleich und damit auch die Laufzeit der Lichtpulse. Die fokussierende Wirkung derartiger Gläser wird ausgenutzt zur Herstellung von GRIN-Linsen (graded index, Abschn. 1.1.4.2). 1.1.4 Abbildung durch Linsen 1.1.4.1 Sphärische Linsen Linsen aus Glas oder Kunststoff mit sphärischen Flächen sind die am meisten benutzten optischen Bauelemente. Für Spezialanwendungen werden auch Linsen mit aufwändig herzustellenden asphärischen Flächen eingesetzt. Dünne Linse an Luft Für den häufig vorkommenden Fall, dass die Linsendicke vernachlässigbar ist und die Linse von Luft umgeben ist, gelten relativ einfache Zusammen-
10
1 Grundlagen
hänge. Fällt ein paralleles und paraxiales Strahlenbündel auf eine Linse, dann vereinigen sich die Strahlen in einem reellen oder virtuellen Brennpunkt F´ (Abb. 1.8). Durch Anwendung des Snellius´schen Brechungsgesetzes auf die Brechung an den beiden Kugelflächen erhält man für die bildseitige Brennweite f ´
1 fc
Dc
nL 1 ¨¨ 1 1 ¸¸ . §
© r1
·
r2 ¹
(1.13)
Die Größe D´ wird als Brechkraft der Linse bezeichnet. Ihre Maßeinheit -1 ist die Dioptrie: 1 dpt = 1 m . r1 ist der Radius der linken, r2 der Radius der rechten Kugelfläche. Die Radien sind nach DIN 1335 vorzeichenbehaftet. Liegt der Krümmungsmittelpunkt einer Fläche rechts von der Linse, so ist r > 0, liegt er links, dann ist r < 0. Die als Linsenmacher-Formel bezeichnete Gl. (1.13) zeigt, dass je nach Vorzeichen und Größe der Radien die Brennweite f ´ positiv oder negativ sein kann. Ist f ´ > 0, dann liegt ein reeller Brennpunkt vor, die Linse ist eine Sammellinse. Für f ´ < 0 ist der Brennpunkt virtuell, die Linse ist eine Zerstreuungslinse (Abb. 1.8).
Abb. 1.8. Linsenformen und Linseneigenschaften
Der objektseitige Brennpunkt F liegt symmetrisch zu F´ auf der anderen Seite der Linse. Beide Brennweiten sind betragsmäßig gleich:
f
fc.
(1.14)
1.1 Geometrische Optik
11
Die Abbildung eines ausgedehnten Gegenstandes kann sehr einfach grafisch bestimmt werden mithilfe von ausgewählten Strahlen (Abb. 1.9). Aus dem Strahlensatz der Geometrie folgt unmittelbar die Abbildungsgleichung
1 1 ac a
1 fc
(1.15)
ac . a
(1.16)
sowie der Abbildungsmaßstab
Ec
yc y
Abb. 1.9. Abbildung eines Gegenstandes mithilfe von Brennpunktstrahlen und Mittelpunktstrahl
Eine besonders elegante Beziehung zwischen Objekt- und Bildort liefert die Newton’sche Abbildungsgleichung
z z c f c2 ,
(1.17)
bei der die Objekt- und Bildweiten z und z´ von den zugehörigen Brennpunkten F und F´ aus gemessen werden. Alle Strecken besitzen nach DIN 1335 ein Vorzeichen. Strecken, die nach rechts oder nach oben weisen, sind positiv. Strecken, die nach links oder nach unten weisen, sind negativ. Zur Erleichterung sind die Strecken in den Abbildungen halbseitig gepfeilt. Beispiel: Im Abstand a = 60 cm vor einer Zerstreuungslinse mit f´ = 30 cm steht ein Gegenstand. Wo entsteht sein Bild und wie groß ist der Abbildungsmaßstab?
12
1 Grundlagen
Lösung: Aus Gl. (1.15) folgt für die Bildweite a´ = 20 cm. Der Abbildungsmaßstab ist E´ = 1/3. Das Bild liegt demnach links von der Linse, es ist virtuell, aufrecht und auf ein Drittel verkleinert. Ƒ
Dicke Linsen an Luft
Abb. 1.10. Lage der Hauptebenen bei einer dicken Sammellinse
Abbildung 1.10 zeigt das Verhalten von Strahlen, die parallel zur optischen Achse auf eine dicke Linse fallen. Der Strahl, der von links auf die Linse fällt, wird nach zweimaliger Brechung in den Brennpunkt F´ abgebildet. Zweckmäßigerweise wird der tatsächliche Strahlengang im Innern der Linse ignoriert. Die gestrichelten Verlängerungen der Strahlen des Außenbereichs definieren durch ihren Schnittpunkt die so genannte Hauptebene H´. Wenn man ihre Lage kennt, kann man einen von links kommenden achsenparallelen Strahl bis zur Hauptebene H´ verlängern und von dort weiter führen bis zum Brennpunkt F´. Sinngemäß wird so auch die Hauptebene H festgelegt. Für die Abstände der Hauptebenen von den Scheiteln gilt (s. Abschn. 1.1.5) cc sH
fc
nL 1 d und sH nL r1
fc
nL 1 d . nL r2
(1.18)
Die Brennweite f´ bzw. Brechkraft D´ der dicken Linse beträgt
1 fc
Dc
2
nL 1 ¨¨ 1 1 ¸¸ nL 1 §
© r1
·
r2 ¹
nL
d . r1r2
(1.19)
1.1 Geometrische Optik
13
Die Abstände der Brennpunkte von den Scheiteln ergeben sich durch c c und sF f c sH . Subtraktion der Strecken: sFc c f c sH Beispiel: Eine Glaskugel mit dem Radius r = 1 mm und der Brechzahl nL = 1,5 wird als Linse verwendet. Wie groß ist die Brennweite f ´, wo liegen die Hauptebenen H und H´ sowie die Brennpunkte F und F´?
Lösung: Mit r1 = + r, r2 = r und d = 2r folgt aus Gl. (1.19) f c Gl. (1.18) folgt für die Lage der Hauptebenen sHc c
nL r nL 1 2
r und sH
1,5 mm . Nach r . Die Haupt-
ebenen liegen also aufeinander in der Linsenmitte. Die Entfernungen der Brennpunkte von den Scheiteln sind somit s´F´ = + 0,5 mm und sF = 0,5 mm. Ƒ
Die Abbildungsgleichung Gl. (1.15) behält ihre Gültigkeit, wenn die Gegenstandsweite a von der Hauptebene H und die Bildweite a´ von der Hauptebene H´ aus gemessen werden. Auch die zeichnerische Konstruktion von Abb. 1.9 kann leicht modifiziert durchgeführt werden (Abb. 1.11). Während bei der dünnen Linse der Mittelpunktstrahl ungebrochen durch die Linse tritt, erfährt der Strahl, der zum Punkt K führt, einen Parallelversatz zum Punkt K´. Punkte, in denen im Gegenstands- und Bildraum parallele Strahlen die optische Achse schneiden, heißen Knotenpunkte. Wenn die Linse wie in Abb. 1.11 beiderseits vom selben Medium umgeben ist, fallen die Knotenpunkte und die Hauptpunkte zusammen. Ist aber die Linse links und rechts von verschiedenen Medien umgeben, dann liegen die Knotenpunkte und die Hauptpunkte an verschiedenen Stellen (s. Abschn. 1.1.5).
Abb. 1.11. Bildkonstruktion bei der dicken Linse
14
1 Grundlagen
Denkt man sich in der Hauptebene H einen Gegenstand (a = 0), so liefert die Abbildungsgleichung (1.15) als Bildort die Hauptebene H´ (a´ = 0). Der Abbildungsmaßstab wird dabei E´ = + 1. Damit lassen sich die Hauptebenen H und H´ interpretieren als das konjugierte Ebenenpaar, für das der Abbildungsmaßstab E ´ = + 1 ist. Ebenso ist K und K´ das konjugierte axiale Punktepaar, für welches das Winkelverhältnis J ´ = +1 ist. 1.1.4.2 GRIN-Linsen
Abb. 1.12. Strahlkrümmung bei der GRIN-Linse
GRIN-Linsen (graded index), auch bekannt unter dem Handelsnamen SELFOC-Linsen, sind kleine Glasstäbchen von typischerweise 2 bis 3 mm Durchmesser und einigen mm Länge, deren Brechungsindex sich kontinuierlich ändert wie bei der Gradientenfaser (Abb. 1.7 b). In solchen Medien laufen die Strahlen auf gekrümmten Bahnen. Abbildung 1.12 zeigt einen Meridionalschnitt durch eine Gradientenfaser, bei welcher der Brechungsindex von der Mitte nach außen kontinuierlich abnimmt. Die Strahlkurve kann aus dem Snellius´schen Brechungsgesetz ermittelt werden: Nach Gl. (1.7) ist das Produkt aus Brechzahl und Sinus des Winkels relativ zum Lot eine Konstante: n sin H const, oder n cos V const, wobei V der Ergänzungswinkel zu 90 q ist. Es gilt also bei variablem Brechungsindex n(r ) cos>V (r )@ n(r dr ) cos>V (r dr )@ .
Wird die rechte Seite in eine Taylor-Reihe entwickelt, wobei Glieder höherer Ordnung vernachlässigt werden, dann ergibt sich n cos V | n cos V n sin V
dV dn dV dr cos V dr oder n tan V dr dr dr
dn . dr
1.1 Geometrische Optik
Nun ist aber tan V
(dr dz ) und damit folgt n
dV dz
dn . Mit V | tan V dr
15 dr dz
erhält man schließlich die Differenzialgleichung für die Strahlkurve n
d 2 r dn | . d z 2 dr
(1.20)
Das Brechzahlprofil einer Gradientenfaser ist meist parabolisch gemäß (s. Kap. 3) 2
' · §r· § n (r ) n1 1 2' ¨ ¸ | n1 ¨1 2 r 2 ¸ . a © ¹ © a ¹ Hier ist n1 die Brechzahl auf der optischen Achse, ' die relative Brechzahldifferenz zwischen Kern und Mantel und a der Radius des Kerns. Mit n(r) | n1 ergibt sich die Differenzialgleichung
d 2r dz
2
2' a2
r
0,
die durch harmonische Funktionen gelöst wird:
§ 2' · r ( z ) rˆ sin ¨¨ z M 0 ¸¸ . © a ¹
(1.21)
Die Periodenlänge (pitch length) ist im Rahmen der gemachten Näherung für alle Strahlwege gleich (s. Abb. 1.7 b) und beträgt 2Sa . (1.22) p 2' Fallen Strahlen außerhalb der optischen Achse schief auf die Stirnfläche (skew rays), dann verlaufen sie im Innern des Stäbchens auf Schraubenbahnen mit elliptischem Querschnitt. Man kann zeigen, dass auch für diese Strahlen die pitch-Länge durch Gl. (1.22) beschrieben wird. Abbildung 1.13 zeigt einige Strahlformen für GRIN-Linsen mit halber oder viertel pitch-Länge.
Abb. 1.13. Strahlwege in GRIN-Linsen
16
1 Grundlagen
Beispiel: Auf eine p/4-GRIN-Linse fällt ein paralleles Strahlenbündel, das unter dem Winkel V0 = 10 q zur optischen Achse geneigt ist. In welchem Abstand re von der optischen Achse liegt der Bildpunkt aller Strahlen auf der Endfläche des Stäbchens? Die numerische Apertur beträgt AN = 0,37, der Brechungsindex des Glases ist n | n1 = 1,6 und der Radius a = 1 mm.
Lösung: n12 n22 | n1 2' . Damit wird nach Gl. 1.22) die Peri-
Nach Gl. (1.12) ist AN
odenlänge p = 27,17 mm und p/4 = 6,79 mm. Infolge der Brechung an der Stirnfläche ist der Winkel der Strahlen relativ zur optischen Achse im Innern der Linse V 1 arcsinsin V 0 / n1 6,23q . Nun gilt nach Gl. (1.21) § p· r¨ ¸ ©4¹
re
rˆ cos M 0 und
ten Abstand folgt: re
dr dz
tan V 1
rˆ
z 0
p tan V 1 2S
2S cos M 0 , woraus für den gesuchp
0,472 mm.
Ƒ
1.1.5 Matrixmethoden der paraxialen Optik Optische Systeme bestehen meist aus mehreren hintereinander angeordneten Linsen und anderen Bauelementen. Eine elegante Beschreibung des Weges, den ein Lichtstrahl durch ein solches System nimmt, bietet die Matrixmethode.
Abb. 1.14. Strahlenverlauf bei einem beliebigen optischen System
Ein Strahl ist durch zwei Parameter beschreibbar (Abb. 1.14). Beispielsweise durch die Höhe h1 in einer beliebigen Referenzebene RE1 sowie den Neigungswinkel V1 relativ zur optischen Achse. Die Höhe h2 und der Winkel V2 in einer anderen Referenzebene RE2 hängt linear von den Eingangsdaten h1 und V1 ab:
h2
A h1 B V 1
V 2 C h1 D V 1 .
1.1 Geometrische Optik
17
In Matrixschreibweise lautet dieses Gleichungssystem
§ h2 · ¨¨ ¸¸ ©V 2 ¹
§h · M ¨¨ 1 ¸¸ ©V1 ¹
(1.23)
§A B· ¨¨ ¸¸ ist die Systemmatrix, deren Form von den optischen Bau©C D¹ teilen des Systems abhängt. Im Folgenden werden die wichtigsten Matrizen beschrieben. M
Transfermatrix
Abb. 1.15. Elemente der optischen Abbildung, a) Transfer, b) Brechung, c) Linse, d) Reflexion
Als Transfer wird der Weg eines Strahls innerhalb eines homogenen Mediums (einheitlicher Brechungsindex) bezeichnet. Nach Abb. 1.15 a) gilt für die Winkel V2 = V1 und für die Höhen h2 h1 d tan V 1 bzw. bei paraxialer Optik h2 h1 d V 1 . In Matrixschreibweise lautet die Verknüpfung § h2 · §h · ¨¨ ¸¸ T ¨¨ 1 ¸¸ ©V 2 ¹ ©V1 ¹
mit der Transfermatrix
T
§1 d · ¸¸ . ¨¨ ©0 1 ¹
(1.24)
18
1 Grundlagen
Brechungsmatrix Abbildung 1.15 b) zeigt die Brechung eines Strahls an einer Kugelfläche, die zwei Medien mit den Brechzahlen n und n´ voneinander trennt. Aus h h den Winkelbeziehungen V c H c M H c und V H M H sowie r r dem Brechungsgesetz in paraxialer Form nH ncH c folgt
§ hc · ¨¨ ¸¸ ©V c ¹
§h· B ¨¨ ¸¸ ©V ¹
mit der Brechungsmatrix
B
§ 1 ¨ n nc ¨ nc r ©
0· ¸ n ¸ nc ¹
(1.25)
Strahlmatrix einer Linse Nach Abbildung 1.15 c) falle ein Strahl auf eine dicke Linse mit Brechzahl nL, die links und rechts umgeben ist von Medien mit den Brechzahlen n1 und n2. Der Weg des Lichtstrahls wird durch drei Matrizen beschrieben: Brechung an der Fläche S1:
§ h1c · ¨¨ ¸¸ © V 1c ¹S1
§h · BS1 ¨¨ 1 ¸¸ , © V 1 ¹S1
Transfer von S1 nach S2:
§ h2 · § hc · ¨¨ ¸¸ TS1S2 ¨¨ 1 ¸¸ und ©V 2 ¹ © V 1c ¹
§ h2c · §h · ¨¨ ¸¸ BS2 ¨¨ 2 ¸¸ . © V 2 ¹S 2 © V 2c ¹S2 Insgesamt werden damit die Ausgangsgrößen mit den Eingangsgrößen verknüpft durch Brechung an der Fläche S2:
§ h2c · ¨¨ ¸¸ © V 2c ¹S 2
§h · BS 2 TS1S 2 BS1 ¨¨ 1 ¸¸ © V 1 ¹S1
§h · Ldick ¨¨ 1 ¸¸ © V 1 ¹S1
mit der Strahlmatrix für dicke Linsen
Ldick
§ 1 ¨ nL nc ¨ nc r © 2
0 ·§1 d ·§ 1 ¸¨ ¸ ¨ nn ¸ ¨© 0 1 ¸¹ ¨ n rL ¹ © L1
nL nc
0· ¸ n ¸ nL ¹
(1.26)
1.1 Geometrische Optik
19
Für den Fall der dünnen Linse (d = 0), die beidseitig von Luft umgeben ist (n = n´ = 1) folgt
Ldünn, Luft
1 § ¨ ¨ (nL 1) r1 r1 2 1 ©
0· ¸. 1¸ ¹
§ A B· ¸¸ -Matrix ist nach Gl. (1.13) identisch mit Das Matrixelement C der ¨¨ ©C D¹ der negativen Brechkraft der Linse. Damit vereinfacht sich die Matrix zu
Ldünn, Luft
§ 1 ¨ 1 ¨ f c ©
0· ¸ 1¸ ¹
0· § 1 ¨¨ ¸¸ . © Dc 1 ¹
(1.27)
Reflexionsmatrix Abbildung 1.15 d) zeigt die Reflexion an einem sphärischen Spiegel (s. auch Abb. 1.3) mit aufgefaltetem Strahlengang. Die Höhen und Winkel hängen zusammen gemäß
§ hc · ¨¨ ¸¸ ©V c ¹
§h· R ¨¨ ¸¸ mit der Reflexionsmatrix ©V ¹
R
§ 1 0· ¨2 ¸. ¨ 1¸ ©r ¹
(1.28)
GRIN-Linse Die Linsenmatrix einer GRIN-Linse (s. Abschn. 1.1.4.2) mit Brechungsindex n1 im Kern, die sich an Luft befindet, lautet
M GRIN
§ ¨ cos Dd ¨ ¨ n D sin Dd © 1
Hier ist d die Länge des Stäbchens und D
1 · sin Dd ¸ n1D ¸. cos Dd ¸¹ 2S p
(1.29)
2' (s. Gl. 1.22). a
Systemmatrix Für ein beliebiges System brechender und reflektierender Flächen (Abb. 1.14) sind die Höhen und Winkel an zwei Referenzebenen durch die
20
1 Grundlagen
Gl. (1.23) verknüpft. Die Systemmatrix ergibt sich durch Matrizenmultiplikation verschiedenster Transfer-, Brechungs- und Reflexionsmatrizen:
§h · § h2 · §A B· ¨¨ ¸¸ M ¨¨ 1 ¸¸ mit M ¨¨ ¸¸ ©C D¹ ©V1 ¹ ©V 2 ¹ minante der Systemmatrix gilt stets
det M
M k M k 1 .... M 2 M1 . Für die Deter-
AD BC
n2 , n1
(1.30)
wobei n1 und n2 die Brechungsindizes an den Referenzebenen RE1 und RE2 sind. Sehr häufig ist am Anfang und am Ende eines Systems Luft, so dass
det M
AD BC 1 .
Dies ist ein wichtiges Ergebnis zur Kontrolle der Systemmatrix auf etwaige Rechenfehler. Bedeutung der Matrixelemente Falls eines oder mehrere Matrixelemente der Systemmatrix null sind, ergeben sich interessante Schlussfolgerungen (Abb. 1.16).
Abb. 1.16. Strahlengänge beim Verschwinden spezieller Matrixelemente
A = 0: Die Höhe in der Referenzebene RE2 wird h2 = BV1. Sie hängt also nur vom Winkel V1 ab und nicht von der Höhe h1. Das bedeutet, dass ein in RE1 parallel einfallendes Strahlenbündel sich in RE2 in einem Punkt schneidet. Damit ist RE2 identisch mit der bildseitigen Brennebene. B = 0: Die Höhe h2 in der Referenzebene RE2 hängt nach h2 = Ah1 nur von der Höhe h1 in RE1 ab, nicht dagegen vom Winkel V1. Damit werden alle Strahlen, die von einem Punkt in RE1 ausgehen, in einem anderen
1.1 Geometrische Optik
21
Punkt in RE2 wieder vereinigt. Demnach sind RE1 und RE2 Gegenstandsund Bildebene (sie sind konjugiert). Der Abbildungsmaßstab ist
yc y
Ec
A.
(1.31)
C = 0: Der Winkel V2 hängt gemäß V2 = DV1 nur vom Winkel V1 aber nicht von der Höhe h1 ab. Parallelstrahlen werden also wieder in Parallelstrahlen überführt. Ein solches System wird als afokales System bezeichnet und wird beim Fernrohr realisiert. Die Winkelvergrößerung ist
Jc
V2 V1
D.
(1.32)
D = 0: Mit dem gleichen Argument wie bei A = 0 sieht man, dass in diesem Fall die Referenzebene RE1 die gegenstandseitige Brennebene ist. Lage der Kardinalpunkte Bezüglich der zwei Referenzebenen RE1 und RE2 lassen sich einfache Ausdrücke finden für die Abstände zu den interessanten Punkten eines optischen Systems. Sie sind in Tabelle 1.3 zusammen gestellt. Tabelle 1.3. Lage der Kardinalpunkte eines optischen Systems Kardinalpunkt Abstand des objektseitigen Brennpunktes F von RE1 Abstand des bildseitigen Brennpunktes F´ von RE2 Abstand der objektseitigen Hauptebene H von RE1 Abstand der bildseitigen Hauptebene H´ von RE2 Abstand des objektseitigen Knotenpunktes K von RE1 Abstand des bildseitigen Knotenpunktes K´ von RE2 objektseitige Brennweite bildseitige Brennweite
Beziehung D s1, F C A c Fc s2, C D n1 n2c s1, H C 1 A sc2, H c C D 1 s1, K C n1 nc2 A sc2, K c C n1 n2c f C 1 fc C
(1.33) (1.34) (1.35) (1.36) (1.37) (1.38) (1.39) (1.40)
22
1 Grundlagen
Beispiel: Gegeben sind zwei dünne Sammellinsen mit den Brennweiten f1c 60 cm und f 2c 50 cm , die im Abstand e = 25 cm an Luft aufgestellt sind (Abb. 1.17). Wie groß ist die Systembrennweite f ´ und wo liegen die Hauptebenen H und H´ sowie die Brennpunkte F und F´ des Systems?
Lösung: Zweckmäßigerweise legt man die Referenzebene RE1 in die Linse L1 und die Ebene RE2 in die Linse L2. Damit wird die Systemmatrix ein Produkt aus zwei Linsenmatrizen nach Gl. (1.27) sowie einer Transfermatrix nach Gl. (1.24): 0· 0· §1 e· § 1 § 1 ¸ . Nach Ausmultiplikation ergibt sich ¸¨ ¸¸ ¨ 1 M L2 T L1 ¨ 1 ¨ ¨ f c 1 ¸ © 0 1¹ ¨ f c 1 ¸ ¹ © 1 ¹ © 2 e § e · 1 f c 0,5833 25 cm · ¸ und numerisch M §¨ 1 ¸. M ¨ 1 -1 ¨ e e 1 ¨ 0,5 ¸¹ 1 f c ¸ © - 0,02833 cm 2 ¹ © f1c f 2c f1c f 2c Zur Kontrolle wird die Determinante berechnet: det M 1 . Für die Gesamtbrennweite gilt nach Gl. (1.40) 1 fc
C
e 1 1 = 2,83 dpt oder f´ = 35,29 cm. f1c f 2c f1c f 2c
Für die Lage der Hauptebenen folgt mit den Gln. (1.35) und (1.36): 1 1 § f 2c · 1 1 1 1 § f1c · ¨¨ 1¸¸ bzw. s1,H = 17,65 cm und ¨ 1¸¸ bzw. s1, H e © f1c ¹ f1c s2c , H c f 2c e ¨© f 2c ¹ s´2,H´ = 14,71 cm. Für die Abstände der Brennpunkte von den Linsen ergibt sich mit den Gln. (1.33) und (1.34) 1 1 1 1 1 1 bzw. s1,F = 17,65 cm und bzw. c c c c c s1, F f1 f 2 e s2, Fc f 2 f1 e s´2,F´ = 20,59 cm.
Ƒ
Abb. 1.17. Brennpunkte und Hauptebenen eines Systems aus zwei Sammellinsen
1.2 Wellenoptik
23
Beispiel: Ein paralleles Lichtbündel fällt auf eine GRIN-Linse der Länge d = 0,22p. Die pitch-Länge ist p = 27,17 mm. Der Brechungsindex im Kern ist n1 = 1,6. In welchem Abstand hinter der Endfläche liegt der Brennpunkt F´ der Linse?
Lösung: Mit D = 2S/p = 0,231 mm-1 ist nach Gl. (1.34) der gesuchte Abstand: s2c , Fc
cos Dd n1D sin Dd
A C
cot Dd n1D
0,516 mm.
Ƒ
1.2 Wellenoptik 1.2.1 Elektromagnetische Wellen Licht ist eine elektromagnetische Welle, wobei sich elektrische und magnetische Wechselfelder mit Lichtgeschwindigkeit von einer Quelle entfernen. Die Maxwell´schen Gleichungen der Elektrodynamik führen auf Wellen-Differenzialgleichungen für die elektrische Feldstärke E und die magnetische Feldstärke H von der Form
0 und 'H H H P P w H w t 0.
'E H rH 0 P r P0 w 2 E w t 2 r 0 r 0
2
2
(1.41)
Hier ist ' der Laplace-Operator
'
w2 w2 w2 , w x2 w y 2 w z 2
Hr die relative Permittivität (Dielektrizitätszahl), H0 die elektrische Feldkonstante, Pr die relative Permeabilität und P0 die magnetische Feldkonstante. Die Gln. (1.41) werden allgemein gelöst von Funktionen des Typs E r , t
f E r c t und H r , t
f H r c t .
Insbesondere werden sie gelöst von harmonischen Funktionen. Beispielsweise lautet die Lösung für eine Lichtwelle, die sich in z-Richtung ausbreitet, wobei die elektrische Feldstärke E in x-Richtung und die magnetische Feldstärke H in y-Richtung weist (Abb. 1.18) E ( z , t ) Eˆ x cosZ t k z M 0 und (1.42) H z , t Hˆ y cosZ t k z M 0
24
1 Grundlagen
oder in komplexer Notation
E
Eˆ x e jZ t k z M 0 und H
Hˆ y e jZ t k z M 0 .
(1.43)
Dabei ist
Z = 2Sf = 2S/T
(1.44)
die Kreisfrequenz, mit der die Felder an einem festen Ort oszillieren. k = 2S/O
(1.45)
ist die Wellenzahl oder Ausbreitungskonstante der Welle, wobei O die Wellenlänge ist (s. Abb. 1.18).
Abb. 1.18. Momentbild einer elektromagnetischen Welle
Das Produkt aus Wellenlänge O und Frequenz f ist die Phasengeschwindigkeit c, mit der sich die Welle ausbreitet: c Of
Z k
.
(1.46)
Bei der Welle nach Gln. (1.42) bzw. (1.43) handelt es sich um eine ebene Welle. Flächen konstanter Phase ( Z t k z M 0 const. ) sind Ebenen senkrecht zur z-Achse. Läuft die ebene Welle in eine beliebige Raumrichtung, die durch den Richtungsvektor k symbolisiert wird (Abb. 1.19), so lautet die Wellengleichung
E (r , t )
Eˆ k e jZ t k r M 0 .
(1.47)
1.2 Wellenoptik
Die Flächen konstanter Phase Z t kr M 0 dem Wellenvektor k, wobei |k| = 2S/O.
25
const. stehen senkrecht auf
Abb. 1.19. Phasenflächen einer ebenen Welle
Bei der elektromagnetischen Welle steht der Vektor E der elektrischen Feldstärke immer senkrecht auf dem Vektor H der magnetischen Feldstärke. Bei einer freien Welle, die sich ungehindert im Raum ausbreitet, steht E und H senkrecht auf der Ausbreitungsrichtung wie in Abb. 1.18. Die elektromagnetische Welle ist also rein transversal. Wenn die Welle allerdings geführt wird, wie z.B. in einem Lichtwellenleiter, dann können die Feldvektoren E und H auch longitudinale Komponenten aufweisen. Bei einer Lichtwelle, die sich im Vakuum ausbreitet, liefert die Wellengleichung (1.41) die Lichtgeschwindigkeit im leeren Raum
1
c0
H 0 P0
.
(1.48)
Breitet sich dagegen die Welle in einem Medium aus, so wird die Phasengeschwindigkeit reduziert auf
1
c
H rH 0 P r P 0
.
(1.49)
Mit der Definition des Brechungsindex n nach Gl. (1.5) ergibt sich n
c0 c
H r Pr .
Da in der Praxis verwendete optische Substanzen in der Regel nicht ferromagnetisch sind, d.h. Pr | 1, gilt die als Maxwell-Relation bekannte Beziehung
n
Hr .
(1.50)
26
1 Grundlagen
Der optische Brechungsindex hängt also ab von der Permittivitätszahl Hr. Da diese frequenzabhängig ist, wird auch der Brechungsindex von der Frequenz bzw. Wellenlänge abhängig. Dies ist der Grund für die Dispersion des Lichts (Abschn. 1.1.3). Energietransport Die Energiedichte (Energie pro Volumenelement) setzt sich zu gleichen Teilen aus elektrischer und magnetischer Feldenergie zusammen:
w we wm
1 1 H rH 0 E 2 P r P0 H 2 2 2
H rH 0 E 2
P r P 0 H 2 . (1.51)
Sie oszilliert also räumlich wie in Abb. 1.18 dargestellt. An einem festen Ort oszilliert die Energiedichte mit der doppelten Lichtfrequenz:
w(t ) H rH 0 Eˆ 2 cos 2 Z t
1 H rH 0 Eˆ 2 (1 cos 2Z t ) . 2
Die Energiestromdichte S ist gegeben durch
wc H rH 0 E 2c
S
P r P 0 H 2c .
(1.52)
Sie oszilliert wie die Energiedichte w mit doppelter Lichtfrequenz. Da alle verfügbaren Detektoren zu träge sind, um diese Schwankungen zu registrieren, werden immer nur die zeitlichen Mittelwerte gemessen. Der Mittelwert der Energiestromdichte oder Intensität beträgt
I
S
1 H rH 0 Eˆ 2c 2 I
1 P r P0 Hˆ 2c oder mit Gl. (1.49) 2 1 H rH 0 ˆ 2 E 2 P r P0
S
1 P r P0 ˆ 2 H . 2 H rH 0
(1.53)
Die elektrische Feldstärke E und die magnetische Feldstärke H sind nicht unabhängig voneinander, sondern über die Maxwell´schen Gleichungen verknüpft. Das Verhältnis der Feldstärken ist die Feldwellenimpedanz (Wellenwiderstand).
Z
E H
P r P0 H rH 0
1 Z0 , n
(1.54)
1.2 Wellenoptik
27
wobei die Wellenimpedanz des Vakuums gegeben ist durch
P0 H0
Z0
376,7 : .
(1.55)
Die Intensität lässt sich auch als Vektorprodukt der elektrischen und magnetischen Feldstärke darstellen: S EuH . (1.56) Der Vektor S weist in Ausbreitungsrichtung der Welle und wird als Poynting´scher Vektor der Energiestromdichte bezeichnet. Aus dieser Definition ist ersichtlich, dass sich die in Abb. 1.18 dargestellte Welle in positiver z-Richtung ausbreitet. Bei Kugelwellen, die von einer punktförmigen Quelle gleichmäßig in alle Raumrichtungen ausgesandt werden, verteilt sich die Strahlungsenergie auf immer größere Kugelflächen. Daher nimmt die Energiestromdichte S umgekehrt proportional zum Quadrat des Abstandes r von der Quelle ab. Wegen Gl. (1.52) nimmt die elektrische und magnetische Feldstärke umgekehrt proportional zum Abstand ab. Die Gleichung für die elektrische Feldstärke einer Kugelwelle lautet demnach
A jZ t k r M 0 e für r ! 0 . r
E (r , t )
(1.57)
Beispiel: Ein Halbleiterlaser emittiert eine Strahlungsleistung von ) = 10 mW auf einer Fläche von 0,3 Pm x 2 Pm. Wie groß ist die Intensität sowie die Amplitude der elektrischen Feldstärke und der magnetischen Flussdichte?
Lösung: Unter der vereinfachenden Annahme, dass die Leistung über den gesamten Strahlquerschnitt gleichmäßig abgestrahlte wird, ist die Intensität I
S
) A
16,7
GW m2
.
Die Amplitude der elektrischen Feldstärke ergibt sich aus Gl. (1.53) zu 2I
Eˆ
H 0 c0
2I Z 0
3,54 10 6
V . m
Die Amplitude der magnetischen Flussdichte ist mit Gl. (1.55) Bˆ
P 0 Hˆ
P0 ˆ E 11,8 mT . Z0
Ƒ
28
1 Grundlagen
1.2.2 Polarisation 1.2.2.1 Polarisationsformen Natürliches Licht, wie es z.B. von Glühstrahlern (Sonne) emittiert wird, besteht aus vielen kurzen Wellenzügen, deren elektrische Feldvektoren senkrecht zur Ausbreitungsrichtung statistisch regellos im Raum ausgerichtet sind. Der E-Vektor hat also keine Vorzugsrichtung. Wird durch geeignete optische Bauelemente (Polarisatoren) erzwungen, dass der E-Vektor im Raum in ausgezeichneter Richtung schwingt, so bezeichnet man die Welle als polarisiert. Folgende Formen der Polarisation werden unterschieden:
Abb. 1.20. Erzeugung von zirkular polarisiertem Licht
x x
x
Lineare Polarisation: Der E-Vektor schwingt in einer Ebene, der Schwingungsebene. Beispielsweise ist die in Abb. 1.18 dargestellte Welle linear polarisiert. Die Schwingungsebene ist die x,z-Ebene. Zirkulare Polarisation: Werden nach der Art von Abb. 1.20 zwei elektromagnetische Wellen so überlagert, dass die E-Vektoren in x- und y-Richtung gleiche Amplituden aufweisen, die beiden Wellen aber um O/4 gegeneinander verschoben sind, dann läuft der resultierende E-Vektor räumlich auf einer Schraube. An einem festen Ort z läuft die Spitze des E-Vektors auf einem Kreis. Blickt der Beobachter der Welle entgegen und der E-Vektor läuft im Uhrzeigersinn um, dann spricht man von rechts-zirkularer Polarisation. Bei Drehung im Gegenuhrzeigersinn liegt links-zirkulare Polarisation vor. Elliptische Polarisation: Sind bei der Überlagerung von zwei senkrecht aufeinander schwingenden Teilwellen entweder die Amplituden ungleich oder der Gangunterschied von O/4 verschieden, dann läuft der resultierende E-Vektor auf einer elliptischen Schraube. In einer Ebene am Ort z läuft die Spitze des E-Vektors auf einer Ellipse (Abb. 1.21).
1.2 Wellenoptik
29
Abb. 1.21. Elliptisch polarisiertes Licht. a) Bahnkurve der Spitze des E-Vektors, b) Zerlegung des E-Vektors in Komponenten
1.2.2.2 Mathematische Beschreibung des Polarisationszustands Gemäß Abb. 1.21 soll sich ein Lichtstrahl senkrecht zur Zeichenebene in z-Richtung ausbreiten. In der Zeichenebene (z = 0) lässt sich der Vektor der elektrischen Feldstärke in Komponenten in x- und y-Richtung zerlegen:
E
§ Eˆ x e j(Z t M x ) · ¨ ¸ ¨ Eˆ y e j(Z t M y ) ¸ © ¹
Eˆ e jZ t ;
dabei ist
Eˆ
§ Eˆ x e jM x ¨ ¨ Eˆ y e jM y ©
· ¸ ¸ ¹
(1.58)
die komplexe Amplitude, welche den Polarisationszustand bestimmt. Zur Beschreibung des Polarisationszustandes wird häufig der als Jones-Vektor bezeichnete normierte Amplitudenvektor
J
jM 1 §¨ Eˆ x e x jM Eˆ ¨© Eˆ y e y
· ¸ ¸ ¹
(1.59)
benutzt, wobei
Eˆ
Eˆ x2 Eˆ y2
der Betrag der Amplitude ist. Tabelle 1.4 zeigt eine Zusammenstellung der wichtigsten Jones-Vektoren für verschiedene Polarisationsarten.
30
1 Grundlagen
Tabelle 1.4. Jones-Vektoren für verschiedene Polarisationszustände. Die x- und y-Richtung bezieht sich auf das Koordinatensystem von Abb. 1.21 Polarisationszustand
Jones-Vektor §1· J x ¨¨ ¸¸ © 0¹
lineare Polarisation in x-Richtung lineare Polarisation in y-Richtung
Jy
§0· ¨¨ ¸¸ ©1¹
lineare Polarisation unter einem Winkel
JE
§ cos E · ¨¨ ¸¸ © sin E ¹
links-zirkulare Polarisation
J lz
1 §1· ¨¨ ¸¸ 2 © - j¹
rechts-zirkulare Polarisation
J rz
elliptische Polarisation G = My – Mx ; Mx = 0
J ell
E zur y-Achse
1 § 1· ¨¨ ¸¸ 2 © j¹ 1 §¨ Eˆ x jG Eˆ ¨© Eˆ y e
· ¸ ¸ ¹
Zwei Jones-Vektoren, für die gilt
J1 J 2
0,
werden als orthogonal bezeichnet. Diese Bedingung erfüllen z.B. zwei senkrecht zu einander polarisierte Wellen oder zwei gegenläufig zirkular polarisierte Wellen. Durch Linearkombination orthogonaler JonesVektoren lassen sich beliebige Polarisationszustände beschreiben. So kann beispielsweise linear polarisiertes Licht aufgefasst werden als Überlagerung von links- und rechts-zirkular polarisierten Wellen:
J lz J rz
1 § 1 · 1 §1· ¨ ¸ ¨ ¸ 2 ¨© j ¸¹ 2 ¨© j ¸¹
1 § 2· ¨ ¸ 2 ¨© 0 ¸¹
§1· 2 ¨¨ ¸¸ © 0¹
2 Jx .
Der Vorfaktor 2 beeinflusst lediglich die Intensität, aber nicht den Polarisationszustand. Beispiel: Welchen Polarisationszustand beschreibt der Jones-Vektor J
1 § j· ¨¨ ¸¸ ? 2 ©1 ¹
1.2 Wellenoptik
31
Lösung: Der Vektor kann folgendermaßen umgeformt werden: J
1 § j· ¨¨ ¸¸ 2 ©1 ¹
j §1· ¨¨ ¸¸ 2 © - j¹
j J lz .
Es handelt sich also nach Tabelle 1.4 um links-zirkulare Polarisation. Der komplexe Vorfaktor j ändert die Phasen beider Wellen in gleicher Weise, beeinflusst also nicht den Polarisationszustand. Ƒ
Änderung des Polarisationszustands Der Polarisationszustand einer Welle kann sich beim Durchgang durch verschiedene Bauelemente ändern. Die Eigenschaften dieser polarisationsoptischen Komponenten können durch Jones-Matrizen beschrieben werden. Die Jones-Matrix ist eine 2x2-Matrix, die den Anfangszustand Ji (initial) mit dem Endzustand Jf (final) verknüpft:
Jf
T Ji .
(1.60)
Die Jones-Matrizen der wichtigsten Bauelemente sind in Tabelle 1.5 zusammengestellt. Tabelle 1.5. Jones-Matrizen einiger polarisationsoptischer Bauteile Bauteil
Jones-Matrix
linearer Polarisator, Schwingungsrichtung in x-Richtung
Tx
§1 0· ¸¸ ¨¨ ©0 0¹
linearer Polarisator, Schwingungsrichtung in y-Richtung
Ty
§ 0 0· ¸¸ ¨¨ ©0 1¹
linearer Polarisator, Schwingungsrichtung unter Winkel E zur x-Achse
TE
§ cos 2 E ¨ ¨ sin E cos E ©
Viertelwellenplatte, schnelle Achse in x-Richtung
TO / 4, x
§1 0 · ¸¸ ¨¨ © 0 j¹
Viertelwellenplatte, schnelle Achse in y-Richtung
TO / 4, y
§1 0· ¸¸ ¨¨ ©0 j¹
Halbwellenplatte, schnelle Achse in x- oder y-Richtung
TO / 2
§1 0 · ¨¨ ¸¸ © 0 1¹
Polarisationsdreher um Winkel G
TG
§ cos G ¨¨ © sin G
sin E cos E ·¸ sin 2 E ¸¹
sin G · ¸ cos G ¸¹
32
1 Grundlagen
Polarisatoren sind Bauelemente, die nur die Komponente des elektrischen Feldvektors durchlassen, die in einer bestimmten Vorzugsrichtung schwingt. Unpolarisiertes Licht wird nach Durchlaufen des Polarisators linear polarisiert. Verzögerungsplatten zeichnen sich dadurch aus, dass die Wellengeschwindigkeit für zwei senkrecht aufeinander stehende Schwingungsrichtungen verschieden ist. Nach Durchlaufen der Platte ist deshalb die in der langsameren Richtung schwingende Welle gegenüber der in der schnelleren Richtung schwingenden verzögert. Ist die Verzögerung beispielsweise eine Viertelwellenlänge, so entsteht aus linear polarisiertem • Licht, das unter 45 zu den Vorzugsrichtungen schwingt, zirkular polarisiertes Licht (s. Abb. 1.20). Polarisationsdreher drehen die Schwingungsebene von linear polarisiertem Licht um einen bestimmten Winkel. Beispiel: Die Wirkung von polarisationsoptischen Bauteilen auf polarisiertes Licht soll in folgenden Fällen untersucht werden: a) In x-Richtung polarisiertes Licht fällt auf einen Polarisator (Analysator), dessen Durchlassrichtung die y-Richtung ist. b) In x-Richtung polarisiertes Licht fällt auf einen Polarisator, dessen Durchlassrichtung unter dem Winkel E gegen die x-Achse geneigt ist. c) Rechts-zirkular polarisiertes Licht fällt auf einen Polarisator, dessen Durchlassrichtung die x-Richtung ist. d) Linear polarisiertes Licht, das unter 45• zur x-Achse schwingt, fällt auf eine O/4-Platte, deren schnelle Achse die x-Achse ist. e) Linear polarisiertes Licht, das unter 45• zur x-Achse schwingt, fällt auf eine O/2-Platte, deren schnelle Achse die x-Achse ist.
Lösung: § 0 0· §1· § 0· ¨¨ ¸¸ ¨¨ ¸¸ ¨¨ ¸¸ . © 0 1¹ © 0¹ © 0¹ Das Licht wird bei gekreuzten Polarisatoren nicht durchgelassen. § cos 2 E § cos E · sin E cos E ·¸ § 1 · §¨ cos 2 E ·¸ ¸¸ ¨¨ ¸¸ ¨ cos E ¨¨ b) J f TE J x ¨¨ 2 ¸ ¸ sin E ¹ © 0 ¹ © sin E cos E ¹ © sin E ¹ © sin E cos E cos E JE .
a) J f
Ty J x
Das Licht schwingt also nach Verlassen des Polarisators in dessen Vorzugsrichtung E. Der E-Vektor wird um den Faktor cosE verkleinert. Die Intensität ist um den Faktor cos2E reduziert. Dies wird als Gesetz von Malus bezeichnet: I E cos 2 E I 0 .
1.2 Wellenoptik
33
§ 1 0 · § 1· 1 1 §1· 1 ¨¨ ¸¸ ¸¸ ¨¨ ¸¸ ¨¨ Jx . 2 2 © 0¹ © 0 0 ¹ © j¹ 2 Zirkular polarisiertes Licht kann also durch einen linearen Polarisator nicht ausgelöscht werden. Dasselbe gilt auch für elliptisch polarisiertes Licht. § 1 0 · §1· 1 1 §1· ¨¨ ¸¸ J lz . ¸¸ ¨¨ ¸¸ d) J f TO / 4, x J 45D ¨¨ 2 © - j¹ © 0 j ¹ ©1¹ 2 c) J f
Tx J rz
Aus linear polarisiertem wird zirkular polarisiertes Licht. § 1 0 · §1· 1 1 §1· ¨¨ ¸¸ J D . ¸¸ ¨¨ ¸¸ e) J f TO / 2 J 45D ¨¨ 45 2 © - 1¹ © 0 1¹ ©1¹ 2 Die Schwingungsebene des Lichts hat sich um 90• gedreht.
Ƒ
1.2.2.3 Polarisationsoptische Komponenten Reflexion und Brechung Fällt natürliches Licht schief auf eine Glasplatte, so ist der reflektierte und der transmittierte Strahl teilweise polarisiert. Stehen diese beiden Strahlen senkrecht aufeinander, dann ist der reflektierte Strahl vollständig polarisiert, wobei der E-Vektor senkrecht zur Einfallsebene steht (Abb. 1.22). Der Einfallswinkel wird in diesem Fall als Brewster-Winkel HP bezeichnet, wobei nach Gl. (1.7)
sin H P
sin(90o H P ) n cos H P oder tan H P
n.
(1.61) •
Für einen Brechungsindex von beispielsweise n = 1,51 folgt HP = 56,5 . Die Erklärung des Effekts liefert Abb. 1.22. Die Elektronen des Glases werden durch das elektrische Feld zu Schwingungen erregt und strahlen dann ih-
Abb. 1.22. Zum Brewster´schen Gesetz: Schwingungsrichtung a) senkrecht, b) parallel zur Einfallsebene
34
1 Grundlagen
rerseits die reflektierte Welle ab. Schwingt der E-Vektor in der Einfallsebene, dann wird gemäß der Richtcharakteristik des Hertz´schen Dipols in die Reflexionsrichtung nichts abgestrahlt. Damit ist der reflektierte Strahl nur senkrecht zur Einfallsebene polarisiert. Dichroismus Dichroitische Materialien lassen im Idealfall Licht einer bestimmten Schwingungsrichtung durch, während sie in der dazu senkrechten Richtung absorbieren. Dieser Effekt wird beispielsweise in Polarisationsfolien (Polaroid-Filter) zur Erzeugung von linear polarisiertem Licht ausgenutzt. Langgestreckte Kohlenwasserstoffmoleküle in Kunststofffolien werden durch mechanisches Recken parallel ausgerichtet und lassen nur E-Vektoren passieren, die senkrecht zur Molekülachse schwingen. Doppelbrechung In verschiedenen Kristallen wie z.B. dem isländischen Kalkspat (CaCO3) tritt Doppelbrechung auf. Fällt nach Abb. 1.23 a) ein Strahl senkrecht auf die Spaltfläche eines Kristalls, so spaltet er in zwei Teilstrahlen auf, den ordentlichen (o) und den außerordentlichen (e). Beide Teilstrahlen sind senkrecht zueinander polarisiert und haben verschiedene Ausbreitungsgeschwindigkeiten und damit verschiedene Brechungsindizes. Gelingt es, einen der beiden Teilstrahlen abzuspalten, bleibt der andere und damit linear polarisiertes Licht übrig. Dies wird realisiert in Polarisationsprismen wie dem Nicol´schen Prisma oder dem Glan-Thompson-Prisma (Abb. 1.23 b).
Abb. 1.23. Doppelbrechung: a) Strahlenverlauf im Hauptschnitt eines Kalkspats, b) Glan-Thompson-Prisma. Der ordentliche Strahl wird an der Kittfläche zweier Prismen total reflektiert, während der außerordentliche durchgelassen wird.
Optische Aktivität Verschiedene Kristalle wie z.B. Quarz und Natriumchlorat sowie einige Lösungen (Zucker) drehen die Schwingungsebene von polarisiertem Licht beim Durchgang durch die Substanz. Stoffe, die dazu in der Lage sind, werden als optisch aktiv bezeichnet. Der Drehwinkel hängt von der Dicke
1.2 Wellenoptik
35
•
des Materials ab und beträgt beispielsweise bei Quarz 21,7 /mm bei 589,3 nm Wellenlänge. Bei Lösungen ist der Drehwinkel abhängig von der Konzentration des gelösten aktiven Stoffes. Damit kann z.B. die Konzentration von Zucker in Lösungen bestimmt werden. Bringt man transparente isotrope Substanzen in ein Magnetfeld und durchstrahlt sie in Richtung der Feldlinien mit linear polarisiertem Licht, dann wird die Polarisationsebene ebenfalls gedreht. Der Drehwinkel dieser Magneto-Rotation, auch bekannt als Faraday-Effekt, ist proportional zur Dicke d der Substanz und zur magnetischen Feldstärke H:
D
VdH.
(1.62)
V wird als Verdet´sche Konstante bezeichnet. Der Faraday-Effekt kann verwendet werden zur Modulation von Licht. Eine andere Anwendung ist der optische Isolator, mit dessen Hilfe beispielsweise ein Halbleiterlaser von einem Lichtwellenleiter optisch isoliert wird (Abb. 1.24). Nach einer • Drehung der Polarisationsebene um 45 lässt er das linear polarisierte Licht des Lasers in Richtung Lichtwellenleiter durch, das reflektierte Licht • schwingt aber nach einer weiteren Drehung um 45 senkrecht zum Eingangspolarisator und wird deshalb nicht zum Laser durchgelassen.
Abb. 1.24. Optischer Isolator aus Polarisator und Faraday-Rotator
Elektrooptischer Effekt Piezoelektrische Kristalle ohne Symmetriezentrum werden im elektrischen Feld doppelbrechend. Bei der longitudinalen Pockels-Zelle (Abb. 1.25) liegt das angelegte elektrische Feld in Richtung der optischen Achse des Kristalls und erzeugt in der dazu senkrechten Ebene eine schnelle und eine langsame Achse. Damit entsteht eine steuerbare Verzögerungsplatte. Die Brechzahldifferenz zwischen langsamer und schneller Achse wächst linear mit der elektrischen Feldstärke und erzeugt nach Durchlaufen der Länge l einen Gangunterschied zwischen den beiden Teilwellen von
' l no3 r E ,
36
1 Grundlagen
wobei no der ordentliche Brechungsindex und r die elektrooptische Konstante ist. Die erforderliche Spannung zur Erzeugung einer Halbwellenplatte wird damit
UO / 2
O0
2no3 r
.
(1.63)
Abb. 1.25. Lichtmodulation mit einer Pockels-Zelle
Beispiel: Für eine Pockels-Zelle aus KDP (KH2PO4) beträgt die relevante elektrooptische Konstante (Element eines Tensors) r63 = 10,6 • 10-12 m/V und die Brechzahl no = 1,51. Wie groß ist die Halbwellenspannung für die Wellenlänge O = 1,06 Pm eines Nd-YAG-Lasers?
Lösung: Nach Gl. (1.63) ergibt sich UO = 14,4 kV.
Ƒ
Mit Pockels-Zellen lässt sich Licht bis in den GHz-Bereich schalten bzw. modulieren. Sie finden Verwendung bei der Hochgeschwindigkeitsfotografie, Lichtmodulation beim Tonfilm und Bildfunk sowie als Güteschalter in Pulslasern. 1.2.3 Interferenz 1.2.3.1 Zweistrahlinterferenz Werden zwei Wellen überlagert, treten Interferenzeffekte auf. Bei Lichtwellen kann Interferenz nur beobachtet werden, wenn die Teilwellen im Beobachtungsgebiet eine feste Phasenbeziehung aufweisen, d.h., wenn sie kohärent sind (s. Abschn. 1.2.3.2) und wenn die E-Vektoren in derselben Richtung polarisiert sind.
1.2 Wellenoptik
37
Überlagerung von Wellen gleicher Wellenlänge und Laufrichtung Werden zwei ebene Wellen mit den Feldvektoren
E1
Eˆ 1 e j(Z t k z M1 ) und E 2
Eˆ 2 e j(Z t k z M 2 )
die sich in z-Richtung ausbreiten überlagert, dann ergibt sich die resultierende Feldstärke aus der Summe der Feldstärken der Ausgangswellen:
E
Eˆ e M
E1 E 2
1
j
1
Eˆ 2 e jM 2 e j(Z t k z )
Eˆ e j(Z t k z ) .
Es entsteht also wieder eine ebene Welle mit derselben Frequenz bzw. Wellenlänge aber einer geänderten Amplitude. Die Intensität dieser Welle ist nach Gl. (1.53) proportional zum Quadrat der Amplitude: I
1 ˆ2 E 2Z
1 ˆ ˆ EE . 2Z
Mithilfe der komplexen Rechnung ergibt sich
Eˆ Eˆ
Eˆ 12 Eˆ 22 2 Eˆ 1 Eˆ 2 cos(M 2 M1 ) und
I
I1 I 2 2 I1I 2 cos(M 2 M1 ) .
(1.64)
Die resultierende Intensität hängt also außer von den Intensitäten der Ausgangswellen von dem dritten Term, dem Interferenzterm ab. Für den wichtigen Fall, dass die beiden interferierenden Wellen gleiche Amplituden haben ( Eˆ 1 Eˆ 2 bzw. I1 I 2 ) ergibt sich für die resultierende Intensität (s. Abb. 1.30) mit G M 2 M1 :
I
2 I1 (1 cos G ) 4 I1 cos 2
G 2
.
(1.65)
Weisen zwei Wellen eine Phasenverschiebung G auf, dann sind sie im Ortsraum um eine gewisse Wegstrecke, den Gangunterschied ' gegeneinander verschoben. Beide Größen hängen zusammen gemäß
' O
G . 2S
(1.66)
Die Bedingungen für die wichtigen Spezialfälle konstruktive und destruktive Interferenz sind in Tabelle 1.6 angegeben und in Abb. 1.26 dargestellt.
38
1 Grundlagen
Tabelle 1.6. Interferenzbedingungen für konstruktive und destruktive Interferenz. Ordnungszahl der Interferenz m 0, r 1, r 2,... Bedingung für
konstruktive Interferenz
destruktive Interferenz
Gangunterschied
'
mO
' (2m 1)
Phasenverschiebung
G
m 2S
G
O
2 (2m 1) S
Abb. 1.26. Interferenz von Wellen mit gleicher Amplitude: a) konstruktive, b) destruktive Interferenz
Überlagerung von Wellen mit verschiedenen Laufrichtungen Es sollen zwei ebene Wellen mit gleicher Amplitude und Wellenlänge zur Interferenz gebracht werden, deren Wellenvektoren k1 und k2 unter dem Winkel 2D gegeneinander geneigt sind (Abb. 1.27). Der Einfachheit halber werden beide Nullphasenwinkel zu null gesetzt. Die resultierende Welle ergibt sich aus
E
E1 E 2
Eˆ e j(Z t k1 r ) Eˆ e j(Z t k 2 r )
Mithilfe der Relation e j x e j y
Eˆ
2 cos
x y j e 2
Eˆ e jZ t (e -jk1r e -jk 2 r ) .
x y 2
§ k k · j(Z t 2 Eˆ cos¨ 2 1 r ¸ e © 2 ¹
ergibt sich
k1 k 2 r) 2 .
(1.67)
Dies ist eine laufende Welle in Richtung des Summenvektors k1 + k2 (Winkelhalbierende in Abb. 1.27), deren Amplitude in der dazu senkrechten Richtung moduliert ist. Die Amplitude, gegeben durch den reellen Vorfaktor, wird null, falls
1.2 Wellenoptik
39
Abb. 1.27. Interferenz schräg verlaufender Wellen
(k2 k1 ) r
(2m 1) S , mit m 0, r 1, r 2,...
Dies ist die Gleichung einer Ebenenschar senkrecht zum Vektor (k2 – k1). Die Amplitude wird maximal, falls
m2S.
(k2 k1 ) r
Die Ebenen mit destruktiver Interferenz sind in Abb. 1.27 gestrichelt, diejenigen mit konstruktiver Interferenz ausgezogen gezeichnet. Sie haben den Abstand
/
O 2 sin D
.
(1.68)
Trifft die laufende Welle auf einen lichtempfindlichen Film, so wird dieser an den Stellen mit konstruktiver Interferenz am stärksten belichtet, an den Stellen der Auslöschung gar nicht. Auf diese Weise lassen sich holographische Gitter herstellen. Beispiel: Zur Herstellung eines Phasengitters für einen DFB-Laser (s. Abschn. 1.5.3.4) wird eine photoempfindliche Schicht belichtet mit zwei Teilstrahlen eines HeCd-Lasers der Wellenlänge O = 441,6 nm. Die Periode des Phasengitters soll / = 394 nm betragen. Welcher Verkippungswinkel D der beiden Teilstrahlen ist einzustellen?
40
1 Grundlagen
Lösung: Nach Gl. (1.68) ergibt sich § O · o D arcsin¨ ¸ 34,1 . © 2/ ¹
Ƒ
Stehende Wellen Laufen zwei Wellen mit gleicher Wellenlänge und Amplitude aufeinander zu, gilt also k1 = k2, dann folgt aus Gl. (1.67) für den resultierenden E-Vektor:
E
2 Eˆ cos(k1r ) e jZ t .
Bewegen sich die beiden Wellen in z-Richtung, dann lautet die stehende Welle in reeller Schreibweise
Eˆ ( z , t )
2 Eˆ cos(k z ) cos(Z t ) .
(1.69)
Wie Abb. 1.28 zeigt, findet in x-Richtung kein Energietransport statt, vielmehr schwingt das elektrische Feld ortsfest senkrecht zur z-Achse. Die Feldstärke ist null an den Knotenebenen, die im äquidistanten Abstand von O/2 auftreten. Derartige stehende Wellen finden sich beispielsweise im Resonator eines Lasers, wo die Wellen ständig zwischen den Endspiegeln hin und her reflektiert werden.
Abb. 1.28. Schwingungszustände einer stehenden Welle zu verschiedenen Zeitpunkten
1.2.3.2 Kohärenz Damit die im vorigen Abschnitt geschilderten Interferenzeffekte auftreten, müssen die interferierenden Wellen eine räumlich und zeitlich feste Phasenbeziehung aufweisen, sie müssen kohärent sein. Im Idealfall sollten
1.2 Wellenoptik
41
also die Lichtwellen unendlich ausgedehnt sein. Tatsächlich weisen die Wellen eine endliche Länge auf, die Kohärenzlänge lc, weil der Emissionsvorgang nach einer endlichen Zeit, der Kohärenzzeit Wc, abbricht. Der danach ausgesandte Wellenzug hat eine völlig andere Phasenlage als der vorherige. Jeweils nach der Zeit Wc ändert sich also der Nullphasenwinkel der Welle statistisch regellos. Die Kohärenzlänge und die Kohärenzzeit sind über die Lichtgeschwindigkeit c verknüpft:
lc
cW c .
(1.70)
Wellenzüge mit endlicher Länge lassen sich nach Fourier darstellen als Integral über Sinuswellen mit einer gewissen spektralen Breite ǻO bzw. ǻf, wobei lc
c 'f
O2 . 'O
(1.71)
Tabelle 1.7 gibt eine Zusammenstellung der Daten verschiedener Lichtquellen. Tabelle 1.7. Kohärenzeigenschaften von Lichtquellen Lichtquelle weißes Licht (380–780 nm) LED (640 nm) FP-Laser, multimode, 1,3 µm DFB-Laser, monomode, 1,3 µm HeNe-Laser, frequenzstabilis., 633 nm DFB-Faserlaser, 1,55 µm
ǻO 400 nm 40 nm 4 nm 100 fm 200 am
ǻf 400 THz 30 THz 710 GHz 20 MHz 150 kHz
lc 0,8 µm 10 µm 420 µm 15 m 2 km
Wc
24 am
3 kHz
100 km
330 µs
2,5 fs 30 fs 1,4 ps 50 ns 7 µs
1.2.3.3 Interferometer Messgeräte, die unter Ausnutzung von Interferenzeffekten physikalische Größen wie Länge, Brechzahl, Wellenlänge usw. messen, werden als Interferometer bezeichnet. Bei den in Abb. 1.29 dargestellten Typen wird ein Strahl in zwei Teilstrahlen aufgespaltet und anschließend wieder vereinigt. Je nach Gangunterschied zwischen den beiden Teilstrahlen beobachtet man konstruktive oder destruktive Interferenz.
42
1 Grundlagen
Abb. 1.29. Interferometer nach a) Michelson, b) Mach-Zehnder. Q: Lichtquelle, T: Strahlteiler (50%-Spiegel), S: Spiegel, D: Detektor, P: Probe
Sind beim Michelson-Interferometer die Interferometerarme so eingestellt, dass am Detektor konstruktive Interferenz auftritt, so wird bei einer Verschiebung eines Spiegels um O/2 wieder konstruktive Interferenz auftreten. Man kann daher durch Verschieben des Spiegels Längen bzw. Längenänderungen auf Bruchteile der Lichtwellenlänge genau messen. Beim Mach-Zehnder-Interferometer ändern sich die Interferenzbedingungen am Detektor, wenn die Symmetrie dadurch gestört wird, dass in einen Interferometerarm eine Probe eingebracht wird. Daduch lassen sich beispielsweise Brechzahlen und Änderungen von Brechzahlen sehr präzise bestimmen. Beispiel: Bei einem Michelson-Interferometer wird ein Spiegel um 'x = 0,1 mm verschoben, wobei eine Fotodiode 312 durchlaufende konstruktive Interferenzen misst. Wie groß ist die Wellenlänge der Lichtquelle?
Lösung: Der Verschiebeweg entspricht 312 halben Wellenlängen: 'x = 0,1 mm = 312O/2. Damit ist die Wellenlänge O = 641 nm. Ƒ
1.2.3.4 Vielstrahlinterferenz Es gibt Anordnungen, bei denen viele Wellen mit derselben Wellenlänge überlagert werden. Die Bedingung für konstruktive Interferenz wird in einem solchen Fall sehr viel schärfer als bei der Zweistrahlinterferenz. p Wellen mit gleicher Amplitude aber einer Phasenverschiebung G zwischen jeweils zwei Wellen sollen überlagert werden: Eˆ 1
Eˆ , Eˆ 2
Eˆ e jG , Eˆ 3
Eˆ e j2G ,..., Eˆ p
Eˆ e j( p -1)G .
1.2 Wellenoptik
43
Die resultierende komplexe Amplitude beträgt Eˆ res
Eˆ 1 e jG e j2G ... e j( p -1)G .
Reihe
mit
Faktor
q
e jG
hat
die
Summe
Die
geometrische
Eˆ res
1 e Eˆ , 1 e jG
Eˆ res
sin( pG / 2) Eˆ e j( p 1)G / 2 . Die Intensität ist nach Gl. (1.53) proportiosin(G / 2)
j pG
die
mathematisch
umgeformt
werden
kann
zu
nal zum Quadrat der Feldstärke: I res
1 ˆ ˆ E E 2 Z res res
1 ˆ 2 sin 2 ( pG / 2) . E 2Z sin 2 (G / 2)
Falls die p Wellen keinen Gangunterschied aufweisen (oder G = m 2S), dann addieren sich alle zur resultierenden Amplitude Eˆ 0 p Eˆ mit der Intensität I0
1 2 ˆ2 p E . 2Z
Damit ergibt sich die Interferenzfunktion I res I0
2
§ sin( pG / 2) · ¸¸ . ¨¨ © p sin(G / 2) ¹
(1.72)
Abb. 1.30. Interferenzfunktion für p = 2 und p = 8 Teilwellen
Wie Abb. 1.30 zeigt, hat die Funktion unabhängig von der Zahl p der interferierenden Wellen Maxima bei G = m 2S oder ' = mO in Übereinstimmung mit der Bedingung für konstruktive Interferenz von Tabelle 1.6. Allerdings wird diese Bedingung mit zunehmendem p immer schärfer. Der 2 Fall p = 2 entspricht der cos (G/2)-Funktion der Gl. (1.65) für die Zwei-
44
1 Grundlagen
strahlinterferenz. An Beugungsgittern können einige Tausend Wellen interferieren, wodurch eine hohe Auflösung erzielt wird. Fabry-Perot-Interferometer Die Vielstrahlinterferenz wird u.a. beim Fabry-Perot-Interferometer (Abb. 1.31) realisiert, bei dem eine eingekoppelte Welle der Amplitude Êe zwischen verspiegelten Glasplatten mehrfach reflektiert wird.
Abb. 1.31. Fabry-Perot-Interferometer. Der Übersichtlichkeit halber sind die an der linken Glasfläche durchgelassenen Teilstrahlen nicht gezeichnet
Ist der Reflexionsfaktor r = Êr/Êe kleiner als 1, dann wird bei jeder Reflexion auch ein Teil der Welle durchgelassen. Die transmittierte Feldstärke wird beschrieben durch den Transmissionsfaktor t = Êt/Êe, wobei r + t = 1. Infolge des Gangunterschieds ' = 2d cosH zwischen zwei benachbarten Strahlen kommt es zu einer Phasenverschiebung der überlagerten elektrischen Feldstärken. Die transmittierte Gesamtfeldstärke ergibt sich zu Eˆ t
t 2 Eˆ e 1 r 2 e -jG r 4 e -j 2G r 6 e -j 3G ... .
Diese unendlich geometrische Reihe mit dem Faktor q Summe 1/(1-q) bzw. Eˆ t
t 2 Eˆ e
1 1 r 2 e - jG
r 2 e -jG hat die
.
2
Mit dem Reflexionsgrad U = r = Ir/Ie und dem Transmissionsgrad W = t2 = It/Ie folgt für die Intensitäten It Ie
W2 2
1 U 2 U cos G
.
1.2 Wellenoptik
45
Für den Fall, dass keine Verluste auftreten, gilt U + W = 1 und nach trigonometrischer Umformung folgt die Transmissionsfunktion des FabryPerot-Interferometers nach Airy:
W FP
It Ie
1 . 4 U sin 2 (G / 2) 1 (1 U ) 2
(1.73)
Die Reflexionseigenschaften der Spiegel werden häufig mit dem Begriff der Finesse beschrieben:
F
S U /(1 U ) .
Damit wird die Airy-Funktion
W FP
It Ie
1 2
§ 2F · 2§ G · 1 ¨ ¸ sin ¨ ¸ S ©2¹ ¹ ©
.
(1.74)
Abb. 1.32. Airy-Funktion des Fabry-Perot-Interferometers. FSR: Free Spectral Range, BW: Bandwidth
Das Fabry-Perot-Interferometer wird praktisch senkrecht durchstrahlt (H | 0); damit ist ' = 2d cosH = 2d und G 4S d O 4S d f c . Die Maxima der Transmissionsfunktion (Abb. 1.32) treten auf bei G 2S m oder d m O 2 . Da im Resonator stehende Wellen entstehen (s. Abschn. 1.2.3.1, Abb. 1.28), muss im Resonanzfall die Resonatorlänge ein ganzzahliges Vielfaches der halben Wellenlänge sein.
46
1 Grundlagen
Durch Verändern des Plattenabstandes d, beispielsweise mit PiezoStellelementen, kann somit die durchgelassene Wellenlänge O bzw. Frequenz f durchgestimmt werden. Der freie Spektralbereich (free spectral range) ist nach Abb. 1.32 O2
'OFSR
2d
bzw. 'f FSR
c . 2d
(1.75)
Die Breite einer Spektrallinie, in Abb. 1.32 die Bandbreite (bandwidth) BW = 2S/F, ist zugleich der Mindestabstand, den zwei Spektrallinien voneinander haben müssen, um aufgelöst zu werden. Dies entspricht folgender Wellenlängen- bzw. Frequenzdifferenz: 'OBW
O2 2dF
bzw. 'f BW
c . 2dF
(1.76)
Das Auflösungsvermögen ist also um so besser, je größer die Finesse ist. Die Finesse entspricht anschaulich der Zahl der miteinander interferierenden Teilstrahlen oder im Photonenbild der mittleren Zahl der Durchläufe eines Photons durch den Resonator bevor es durchgelassen, absorbiert oder gestreut wird. Kommerzielle Geräte erreichen Finesse-Werte von einigen Tausend. Beispiel: Um die spektrale Linienbreite eines Single-Mode-Halbleiterlasers bei O § 1,3 Pm zu messen, wird ein Fabry-Perot-Interferometer eingesetzt mit einem Spiegelabstand von d § 5 mm und einer Finesse von F = 1500. Wie groß ist die erreichbare Auflösung der Spektrallinie?
Lösung: Nach Gl. (1.76) gilt für die Bandbreite ǻfBW = 20 MHz oder ǻOBW = 113 fm. Das Auflösungsvermögen ist O/ǻO = 11,5106. Ƒ
1.2.3.5 Beugung am Spalt Wird die freie Ausbreitung von Licht behindert durch Blenden, Kanten und sonstige Hindernisse, so breitet sich das Licht hinter diesen Störungen auch in die Schattenzonen aus. Es läuft also gewissermaßen um die Ecken, es wird gebeugt. Huygens´sches Prinzip Die Ausbreitung einer Welle kann nach Huygens verstanden werden, wenn man annimmt, dass jeder Punkt der Wellenfront eine Elementarwelle aus-
1.2 Wellenoptik
47
sendet. Die Einhüllende aller Elementarwellen liefert die neue Wellenfront. In Abb. 1.33 kommt von links eine ebene Welle (im Prinzip unendlich ausgedehnt). Durch die Huygens´sche Elementarwellenkonstruktion entsteht aus der ersten ebenen Wellenfront wieder eine Ebene usw. Durchläuft die Welle den Spalt, so ist innerhalb des Spaltes die Zahl der Sender Huygens´scher Elementarwellen begrenzt, so dass sich hinter dem Spalt keine ebene Welle mehr ausbildet.
Abb. 1.33. Entstehung der Spaltbeugung
Nach Fresnel kann die entstehende Intensität in einem beliebigen Raumpunkt hinter dem Spalt berechnet werden, indem die elektrischen Felder, die von allen Sendern innerhalb des Spaltes ausgesandt werden, addiert werden. Beobachtet man in unendlich großem Abstand vom Spalt (so genannte Fraunhofer-Beugung), dann wird die Berechnung besonders einfach. Wenn p Sender innerhalb des Spaltes der Breite b angenommen werden, ist der Phasenunterschied benachbarter Teilstrahlen in Richtung D 2S
G
' O
2S
b sin D . pO
Die resultierende Feldstärkenamplitude in dieser Richtung wird damit Eˆ D
Eˆ 1 e jG e j2G ... e j( p-1)G .
Die Summe der geometrischen Reihe beträgt (s. Abschn. 1.2.3.4) Eˆ D
§ b · sin ¨ S sin D ¸ O ¹ . Eˆ e j( p 1)G / 2 © § b sin D · ¸ sin ¨¨ S pO ¸¹ ©
48
1 Grundlagen
Für eine große Zahl (p o f) der interferierenden Spalte ergibt sich § b · sin ¨ S sin D ¸ © O ¹ . Eˆ e j( p 1)G / 2 b sin D S pO
Eˆ D
Die Intensität ID in Richtung D bezogen auf die Intensität I0 in GeradeausRichtung wird damit (s. Abschn. 1.2.3.4)
ID I0
2
b § sin x · ¸ , mit x S sin D . ¨ x O ¹ ©
(1.77)
Abb. 1.34. Intensitätsverteilung bei der Beugung am Spalt
Nach Abb. 1.34 hat die Spaltbeugungsfunktion Nullstellen (destruktive Interferenz) bei x = rS, r2S... Dies entspricht folgenden Winkeln: sin D m
m
O b
, mit m
r1, r 2... .
(1.78)
Beugung an der Lochblende Wird der Spalt durch eine kreisförmige Lochblende ersetzt, so entsteht im Fernfeld (Fraunhofer´sche Beugung) eine rotationssymmetrische Figur (Abb. 1.35). Das zentrale Airy´sche Beugungsscheibchen, in das etwa 84 % der gebeugten Lichtintensität fällt, ist umgeben von konzentrischen hellen und dunklen Ringen.
1.2 Wellenoptik
49
Abb. 1.35. Beugungsbild hinter einer Kreisblende
Die Intensität ID in Richtung D bezogen auf die Intensität I0 in Geradeaus-Richtung ist gegeben durch
ID I0
2
d § 2J1 ( x) · ¨ ¸ , mit x S sin D . x O © ¹
(1.79)
J1(x) ist die Bessel-Funktion 1. Ordnung, d der Durchmesser der Blende. Nullstellen treten auf unter den Winkeln sin D l
l
O d
, mit l = 1,220; 2,233; 3,238; 4,241 usw.
Auflösungsvermögen optischer Instrumente Das Auflösungsvermögen optischer Instrumente ist in der Regel beugungsbegrenzt. Das bedeutet, dass infolge von Beugung an Linsenfassungen, Blenden etc. dicht benachbarte Objektpunkte nicht getrennt abgebildet werden. Wird beispielsweise mit einem Fernrohr ein Punkt eines weit entfernten Objektes betrachtet, so erwartet man nach den Gesetzen der geometrischen Optik einen Bildpunkt in der Brennebene des Objektivs. Tatsächlich entsteht aber durch Beugung an der Linsenfassung ein Airy´sches Beugungsscheibchen. Ein dicht benachbarter Gegenstandspunkt, der ebenfalls als Beugungsscheibchen abgebildet wird, kann nur dann vom ersten getrennt werden, wenn ein Mindestabstand der beiden Scheibchen vorliegt. Zwei Objektpunkte werden dann aufgelöst, wenn das Maximum der einen Beugungsfunktion auf das erste Minimum der anderen fällt. Nach dieser, als Rayleigh-Kriterium bekannten Voraussetzung, ist der kleinste
50
1 Grundlagen
Winkel D, unter dem zwei Objektpunkte von der beugenden Blende aus erscheinen können, gegeben durch
D | sin D 1,22
O d
.
(1.80)
Beispiel: Welche Auflösung hat das Weltraum-Teleskop Hubble, das einen Spiegel mit einem Durchmesser von 2,4 m hat?
Lösung: Für die Wellenlänge O = 555 nm D = 2,87 10-7 rad = 0,0582´´.
(grün)
folgt
als
Grenzwinkel
Ƒ
Nach Abbe gilt für den Mindestabstand zweier Objektpunkte, damit man sie mit einem Mikroskop trennen kann
y
0,61
O AN
.
(1.80)
AN ist die numerische Apertur des Mikroskopobjektivs. Man kann also mit beugungsbegrenzten Mikroskopen Objekte von der Größenordnung der Lichtwellenlänge auflösen. Die Beugungsbegrenzung lässt sich überwinden durch Rastersondenmikroskope. Die Auflösung ist hier durch die Größe der verwendeten Sonde gegeben und erreicht atomare Dimensionen. 1.2.3.6 Beugung am Gitter Fällt eine ebene Welle nach Abb. 1.36 auf ein Gitter, dann erscheinen im Fernfeld (Fraunhofer´sche Beugung) unter verschiedenen Winkeln D relativ zur Einfallsrichtung Maxima und Nullstellen der Intensitätsverteilung Die Beugungsfunktion eines Gitters besteht aus der Spaltbeugungsfunktion nach Gl. (1.77) sowie der Gitterfunktion nach Gl. (1.72), welche die Vielstrahlinterferenz der p interferierenden Wellen (p Spalte) beschreibt:
ID I0
§ § b ·· ¨ sin ¨ S sin D ¸ ¸ ¹¸ ¨ © O ¸ ¨ b ¨ S sin D ¸ O ¹ ©
2
§ § ¨ sin ¨ pS ¨ © ¨ § ¨ psin ¨ S © ©
g
2
·· sin D ¸ ¸ O ¹¸ . g ·¸ sin D ¸ ¸ O ¹¹
(1.82)
1.2 Wellenoptik
51
Abb. 1.36. Gitterstrukturen, a) Transmissionsgitter, b) Echelette-Gitter
Hauptmaxima der Funktion treten auf (Abb. 1.37) für z S
g
O
sin D
0, r S , r 2S ... ,
d.h. für Winkel, die folgender Bedingung genügen:
sin D m
m
O g
, mit m 0, r 1, r 2... .
(1.83)
Die Bedingung für konstruktive Interferenz wird nach den Ausführungen von Abschn. 1.2.3.4 um so schärfer, je mehr Spalte des Gitters durchstrahlt werden (s. auch Abb. 1.30).
Abb. 1.37. Intensitätsverteilung bei der Beugung am Gitter mit p = 8, g/b = 7, z S
g
O
sin D
Die Hauptmaxima zweier dicht benachbarter Wellenlängen O und O + dO werden dann noch getrennt, wenn das Intensitätsmaximum von
52
1 Grundlagen
O + dO auf das ersten Minimum von O fällt (Rayleigh-Kriterium). Aus dieser Betrachtung folgt für das Auflösungsvermögen eines Gitters O dO
mp.
(1.84)
Es ist also um so besser, je mehr Spalte das Gitter aufweist und je höher die Beugungsordnung ist, in der man arbeitet. Auf Grund der Mehrdeutigkeit der Gl. (1.83) kann das m-te Intensitätsmaximum der Wellenlänge O + O an derselben Stelle erscheinen wie das (m + 1)-te Maximum der Wellenlänge O: (O + O)m = O(m + 1). Daraus folgt, dass der nutzbare Wellenlängenbereich eines Gitters beschränkt ist auf
O m.
'O
(1.85)
Beispiel: Kann man mit einem Gitter der Gitterkonstanten g = 2 Pm und p = 25.000 Gitterstrichen die beiden Natrium-D-Linien trennen, die folgende Wellenlängen haben: O1 = 589,5930 nm und O2 = 588,9963 nm?
Lösung: Erforderlich zur Trennung der beiden Spektrallinien ist ein Auflösungsvermögen von O/dO = 589 nm/0,597 nm = 987. In der ersten Beugungsordnung beträgt das Auflösungsvermögen des verwendeten Gitters nach Gl. (1.84) O/dO = 25.000, ist also ca. 25 mal besser als erforderlich. Die größtmögliche Beugungsordnung ist nach Gl. (1.83) m = 3. In der dritten Ordnung ist das Auflösungsvermögen 75.000. Der nutzbare Wellenlängenbereich ist dann allerdings nur noch O = 196 nm. Ƒ
Gitter für Gitterspektrometer sind meist als Reflexionsgitter ausgebildet. Besondes hohen Wirkungsgrad zeigen Echelette-Gitter (Abb. 1.36 b). Das sind Gitter mit keilförmigen Stufen, wobei der Keilwinkel G, der so genannte Blaze-Winkel so gewählt wird, dass die Beugungsrichtung für eine bestimmte Ordnung m mit der natürlichen Reflexionsrichtung übereinstimmt. Dadurch wird der größte Teil des gebeugten Lichts in die gewünschte Beugungsordnung gelenkt. Für das Stufengitter von Abb. 1.36 b) ist die Bedingung für Maxima gegeben durch
sin D m sin E
m
O g
, mit m 0, r 1, r 2... .
(1.86)
1.2 Wellenoptik
53
Der Blaze-Winkel beträgt
G
1 (E D ) . 2
(1.87)
1.2.3.7 Gruppengeschwindigkeit Lichtwellen sind räumlich und zeitlich nicht unendlich ausgedehnt, sondern bestehen aus mehr oder weniger kurzen Wellenpaketen (Abb. 1.38). Diese lassen sich nach Fourier darstellen als Summe bzw. Integral über sinusförmige Wellen mit unterschiedlichen Wellenzahlen bzw. Frequenzen.
Abb. 1.38. Schwebungsgruppe
Die Eigenschaften einer solchen Wellengruppe lassen sich bereits erkennen, wenn nur zwei Wellen
E1
Eˆ cos(Z1t k1z ) und E 2
Eˆ cos(Z 2t k2 z )
mit eng benachbarten Wellenzahlen bzw. Frequenzen zu einer Schwebungsgruppe überlagert werden. Die Addition der beiden Teilwellen liefert
E
E1 E 2
2 Eˆ cos(Z t k z ) cos( 'Z t 'k z ) ,
(1.88)
k1 k2 k1 k2 Z1 Z 2 , 'Z und 'k . Der erste 2 2 2 2 Faktor in Gl. (1.88) stellt eine Trägerwelle dar, die praktisch dieselbe Frequenz bzw. Wellenzahl besitzt wie die beiden Ausgangswellen. Der zweite Faktor bewirkt eine langwellige Modulation der Trägerwelle. Die Ausbreitungsgeschwindigkeit der Trägerwelle ist die normale Phasengeschwindigkeit c Z k fO . Das Maximum der Einhüllenden befindet sich am Ort z ( 'Z t mS ) / 'k und bewegt sich mit der Geschwindigkeit
mit Z
Z1 Z 2
,k
cgr
dz dt
'Z , 'k
54
1 Grundlagen
der Gruppengeschwindigkeit. Beschreibt man eine Wellengruppe mit einem Fourier-Integral, wobei unendlich dicht benachbarte Frequenzen auftreten, dann ist die Gruppengeschwindigkeit
cgr
dZ dt
cO
dc . dO
(1.89)
Die Geschwindigkeit einer Wellengruppe lässt sich auch durch einen speziellen Gruppenindex ausdrücken:
ngr
c0 cgr
nO
dn . dO
(1.90)
O ist die Vakuum-Lichtwellenlänge, n der normale Brechungsindex (s. Abschn. 1.1.3). Bei transparenten Medien liegt meist normale Dispersion vor, d.h. dn/dO < 0 (s. Abb. 1.5). Dann ist ngr > n und cgr < c. Optische Nachrichtenübertragung auf Lichtwellenleitern wird häufig bei O = 1,3 Pm durchgeführt, weil der Gruppenindex von Quarzglas bei dieser Wellenlänge einen Tiefpunkt aufweist (dngr/dO = 0). Das bedeutet, dass die Gruppengeschwindigkeit von Lichtpulsen nur unwesentlich von der Wellenlänge abhängt, der Puls also kaum zerläuft (s. Abschn. 3). 1.2.3.8 Holografie Die Holografie ist ein von Dennis Gabor entwickeltes Verfahren, mit dem man räumliche Bilder von dreidimensionalen Gegenständen machen kann. Bei der klassischen Fotografie geht der räumliche Eindruck verloren, weil die Schwärzung des Films nur von der Intensität, nicht aber von der Phase der abbildenden Lichtwelle abhängt. Die komplette Information über die Oberfläche eines zu fotografierenden Gegenstandes steckt aber in der Amplitude und der Phase der Wellen, die von den einzelnen Gegenstandspunkten ausgesandt werden. Bei der Holografie wird die in der Phase steckende Information dadurch konserviert, dass die Objektwelle, die von den einzelnen Gegenstandspunkten stammt, mit einer Referenzwelle überlagert wird. Das entstehende Interferenzmuster, das alle Informationen über Amplituden und Phasenlagen der beiden interferierenden Wellen enthält, wird auf einer Fotoplatte festgehalten.
1.2 Wellenoptik
55
Abb. 1.39. Holografie, a) Aufnahme eines Hologramms, b) Wiedergabe. A: Auge des Betrachters, B: Bild, F: Fotoplatte, H: Hologramm, L: Laser, O: Objekt
Zu diesem Zweck wird nach Abb. 1.39 a) ein Laser mit hoher Kohärenz in zwei Teilstrahlen aufgespaltet. Der eine Strahl beleuchtet das abzubildende Objekt, von dessen Oberfläche die Objektwelle ausgesandt wird, die im Punkt (x,y) auf der Fotoplatte die komplexe Amplitude
Eˆ O
Eˆ O e j\
erzeugt. Amplitude ÊO(x,y) und Phase \(x,y) hängen in komplizierter Weise von der Form und Oberflächenbeschaffenheit des Objektes ab. Wäre nur diese Objektwelle vorhanden, dann würde die Fotoplatte an der Stelle (x,y) geschwärzt proportional zu
Eˆ O Eˆ O
Eˆ O2 ,
wobei die Phaseninformation verloren ging. Fällt nun der zweite Teilstrahl des Lasers als Referenzwelle
Eˆ R
Eˆ R e jM
ebenfalls auf die Fotoplatte, dann entsteht aus der Überlagerung der beiden Felder am Ort (x,y) die Gesamtfeldstärke
Eˆ F
Eˆ R Eˆ O .
Die Intensität der resultierenden Welle ist gegeben durch
I ( x, y ) ~ Eˆ F Eˆ F
Eˆ 2R Eˆ O2 Eˆ R Eˆ O e j(M -\ ) Eˆ R Eˆ O e j(\ -M ) .
(1.91)
56
1 Grundlagen
Die entwickelte Fotoplatte wird als Hologramm bezeichnet. Sein Transmissionsfaktor t(x,y) ist proportional zur Intensität I(x,y). Zur Bildwiedergabe stellt man nach Abb. 1.39 b) das Hologramm H an die Stelle der Fotoplatte und beleuchtet es wieder mit der Referenzwelle des Lasers. Dadurch entsteht hinter dem Hologramm ein Feld mit der Amplitude
Eˆ H
Eˆ R t ( x, y ) ~ Eˆ R I ( x, y ) oder
Eˆ H ~ ( Eˆ R Eˆ O ) Eˆ R e jM Eˆ R2 Eˆ O e j\ Eˆ R2 e j2M Eˆ O e -j\ .
(1.92)
Das erste Glied entspricht der Referenzwelle, die lediglich mit veränderter Amplitude durch das Hologramm läuft. Das zweite Glied enthält die Objektwelle Eˆ O Eˆ O e j\ , wie sie ursprünglich vom Objekt ausgesandt wurde. Fällt sie in das Auge A eine Beobachters, dann entsteht für ihn ein virtuelles dreidimensionales Bild B an der Stelle, an der vorher das Objekt O stand. Das dritte Glied von Gl. (1.92) enthält die zur Objektwelle konjugierte Welle, die vor dem Hologramm ein reelles Bild erzeugt, welches normalerweise nicht betrachtet wird. Tabelle 1.8 gibt einen Überblick über die wichtigsten Anwendungsfelder der Holografie. Tabelle 1.8. Technische Anwendungen der Holografie Speicherung von Informationen Archivierung von dreidimensionalen und zweidimensionalen Bildern, z.B. Werkstücke, Modelle, Kunstwerke, Ätzmasken, digitale Massenspeicher in Volumenhologrammen
holografische Korrelation Vergleich eines Werkstücks mit einem holografisch fixierten Muster, automatische Teileerkennung, Erkennung von Formfehlern an Werkstücken und Werkzeugen
Interferenzholografie Zerstörungsfreie Werkstoffprüfung, Vermessung von Bewegungen und Verformungen aufgrund mechanischer oder thermischer Belastung, Schwingungsanalyse
Fertigung optischer Bauteile Ersatz von lichtbrechenden optischen Bauteilen wie Linsen, Spiegel, Prismen, Strahlteiler durch Hologramme, holografische Herstellung von Beugungsgittern
1.3 Radio- und Fotometrie Die Radiometrie befasst sich mit der Messung von Strahlung. Strahlungsleistung, Energie u.a. strahlungsphysikalische Größen werden mit kalibrierten Messgeräten gemessen. Zur Kennzeichnung werden die Formelbuchstaben mit dem Index e (für energetisch) gekennzeichnet. Die
1.3 Radio- und Fotometrie
57
Fotometrie bewertet die Empfindung des Lichts durch das menschliche Auge. Zur Kennzeichnung werden die Formelzeichen der lichttechnischen Größen mit dem Index v (für visuell) versehen. Wenn keine Verwechslungsgefahr besteht, können die Indizes entfallen. 1.3.1 Strahlungsphysikalische Größen Die wichtigsten radiometrischen Größen sind in Tabelle 1.9. zusammen gestellt. Einige Größen hängen vom Raumwinkel : ab. Fällt nach Abb. 1.40 a) Strahlung von einem Punkt P auf eine beliebig geformte Fläche A auf der Oberfläche einer Kugel mit Radius r, dann wird die Strahlung ausgesandt in den Raumwinkel
:
A :0 . r2
(1.93)
:0 = 1 sr (Steradiant) ist die Maßeinheit des Raumwinkels.
Abb. 1.40. Raumwinkel: a) Definition, b) Strahlenkegel, der vom Sender (Fläche A1) auf den Empfänger (Fläche A2) fällt
Bei der Anordnung von Abb. 1.41 b) ist der Raumwinkel, unter dem der Empfänger vom Sender aus erscheint
:
A2 cos H 2 :0 . r2
(1.94)
Für die Strahlungsleistung, die von einem Element dA1 der Senderfläche auf ein Element dA2 der Empfängerfläche fällt, gilt das photometrische Grundgesetz
d 2)
L
dA1 cos H1 dA2 cos H 2 :0 . r2
(1.95)
58
1 Grundlagen
Die komplette Strahlungsleistung ), die vom Sender auf den Empfänger fällt ergibt sich durch Integration über die beiden Flächen. Tabelle 1.9. Radiometrische Größen Größe
Symbol Einheit
StrahlungsQ, (Qe) Ws = J energie
Q
³) d t
Erklärung Energieübertrag durch elektromagnetische Strahlung
J s
)
dQ dt
Leistung der elektromagnetischen Strahlung
Strahlungs), ()e) leistung
W
Beziehung
senderseitige Größen spezifische Ausstrah- M, (Me) W/m2 lung Strahlstärke
I, (Ie)
Strahlichte L, (Le)
W/sr
W sr m 2
M
d) d A1
I
d) d :1
L
d 2) d :1 dA1 cos H1
L
dI d A1 cos H1
E
d) d A2
H
³ E dt
Quotient aus Strahlungsleistung und Senderfläche Quotient aus Strahlungsleistung und Raumwinkel, in den die Strahlung austritt Quotient aus Strahlungsleistung und Raumwinkel sowie Projektion der Fläche auf eine Ebene senkrecht zur Strahlrichtung
empfängerseitige Größen BestrahE, (Ee) lungsstärke Bestrahlung
W/m2
H, (He) J/m2
Quotient aus Strahlungsleistung und bestrahlter Fläche Zeitintegral der Bestrahlungsstärke
Diffus strahlende Flächen sind so genannte Lambert-Strahler. Sie zeigen eine von der Betrachtungsrichtung unabhängige Strahldichte L, was dazu führt, dass die Strahlstärke I nach dem Lambert´schen Cosinusgesetz vom Emissionswinkel H1 abhängt:
I (H1 )
I (0) cosH1 .
(1.96)
1.3 Radio- und Fotometrie
59
Abb. 1.41. Zur Berechnung der Strahlung in einen Kegel
Beispiel: Ein Lambert-Strahler der Strahldichte L strahlt nach Abb. 1.41 in einen Kegel mit Öffnungswinkel M. Wie groß ist die abgestrahlte Leistung )?
Lösung: Der differenzielle Raumwinkel in Abhängigkeit vom Emissionswinkel H1 ist
d:
dA :0 r2
2S r sinH1 r dH1 r2
:0
2S sin H1: 0 dH1 .
Der Strahlungsfluss in diesen Raumwinkel beträgt d)
I d:
L A1 cosH1 d:
2S L A1 cosH1 sin H1: 0 dH1 .
Der gesamte Strahlungsfluss in den Kegel mit Öffnungswinkel M ergibt sich durch Integration von M
)
2S L A1: 0 cosH1 sin H1 dH1 zu
³ 0
) (M ) S L A1 sin 2M : 0 .
(1.97)
Erfolgt die Strahlung in den kompletten Halbraum (M = S/2, : = 2S sr), dann gilt
)
S L A1 : 0
(1.98)
S L: 0 .
(1.99)
oder für die spezifische Ausstrahlung
M
Ƒ
60
1 Grundlagen
1.3.2 Lichttechnische Größen Der visuelle Eindruck des Lichts hängt von der spektralen Empfindlichkeit des menschlichen Auges ab. Abbildung 1.42 zeigt den von der CIE (Commission Internationale de l’Éclairage) festgelegten Hellempfindlichkeitsgrad V(O) des Standardbeobachters, der in DIN 5031 in Nanometerschritten tabelliert ist.
Abb. 1.42. Spektraler Hellempfindlichkeitsgrad für Tagessehen in linearer bzw. logarithmischer Darstellung Tabelle 1.10. Fotometrische Größen Größe Lichtmenge Lichtstrom
Symbol Q, (Qv)
), ()v)
Einheit lms (Lumensekunde) lm (Lumen)
senderseitige Größen spezifische Lichtausstrahlung Lichtstärke Leuchtdichte
M, (Mv) I, (Iv) L, (Lv)
lm/m2 (Lumen/Quadratmeter) lm/sr = cd (Candela) cd/m2 (Candela/Quadratmeter)
empfängerseitige Größen Beleuchtungsstärke Belichtung
E, (Ev) H, (Hv)
lm/m2 = lx (Lux) lxs (Luxsekunde)
Zu jeder der in Tabelle 1.9 definierten radiometrischen Größen ist eine entsprechende fotometrische Größe definiert (Tabelle 1.10). Bei monochromatischer Strahlung kann aus jeder beliebigen strahlungsphysikalischen Größe Xe die zugehörige lichttechnische Größe Xv nach folgendem Muster berechnet werden:
Xv
K m V (O ) X e .
(1.100)
1.4 Quantennatur des Lichts
61
Km = 683 lm/W ist der Maximalwert des photometrischen Strahlungsäquivalents, dessen Zahlenwert sich aus der Festlegung der Maßeinheit Candela für die Lichtstärke ergibt. Für breitbandige Strahlung müssen die spektralen Größen Xe,O = dXe/dO über den sichtbaren Spektralbereich integriert werden: 780 nm
Xv
Km
³ V (O ) X e,O dO .
(1.101)
380 nm
Beispiel: Die Strahlstärke einer LED (O = 640 nm) in Vorwärtsrichtung ist Ie = 1 mW/sr. Wie groß ist die Lichtstärke Iv?
Lösung: Näherungsweise kann die Strahlung als monochromatisch behandelt werden. Der Hellempfindlichkeitsgrad beträgt V(640 nm) = 0,175. Damit ist die Lichtstärke nach Gl. (1.100) Iv
683
lm W 0,175 10 3 W sr
0,12 cd .
Ƒ
1.4 Quantennatur des Lichts 1.4.1 Photonen Beim lichtelektrischen Effekt oder äußeren Fotoeffekt werden durch Licht bzw. UV-Strahlung aus Festkörpern Elektronen ausgelöst. Die kinetische Energie der Elektronen hängt nicht von der Intensität des Lichtes ab, sondern linear von seiner Frequenz: Ekin = hf – WA. Dieser von Lenard gefundene Zusammenhang, der nach der klassischen Elektrodynamik völlig unverständlich ist, führte Einstein 1905 zur Formulierung seiner Lichtquantenhypothese. Danach kann Licht interpretiert werden als ein Strom von Lichtquanten oder Photonen, von denen jedes eine wohl definierte Energie transportiert und bei Wechselwirkung mit Materie an dieselbe abgeben kann. Die Energie eines Photons beträgt
Eph
hf
hc0
O
.
(1.102)
62
1 Grundlagen
h 6,626 10 34 Js ist die Planck´sche Konstante, f die Frequenz, O die Wellenlänge des Lichts und c0 die Vakuum-Lichtgeschwindigkeit. Für praktische Rechnungen beträgt hc0 1,24 Pm eV . Die Planck´sche Konstante war von Planck eingeführt worden, der die Strahlung schwarzer Körper nur dadurch richtig beschreiben konnte, dass er annahm, dass das Strahlungsfeld mit Materie Energie nur in äquidistanten Stufen vom Betrag hf austauschen kann. Wird Licht von Materie absorbiert, dann gibt jedes Photon seine Energie an das absorbierende System ab und regt es in einen höheren Energiezustand an; beispielsweise werden Elektronen auf höhere erlaubte Energiezustände gehoben. Umgekehrt werden Photonen emittiert, wenn Elektronen (oder andere Elementarteilchen) von einem höheren in einen tieferen Energiezustand übergehen. Sind die Energiezustände (E1, E2, ...) scharf definiert, wie z.B. die Elektronenenergien der Gasatome einer Spektrallampe, dann entstehen Photonen mit wohldefinierter Energie hf = Em – En. Ein monochromatischer Lichtstrahl enthält Photonen mit einheitlicher Energie. Die Strahlungsleistung ) und der Photonenstrom N ph (Zahl der emittierten Photonen pro Zeiteinheit) hängen folgendermaßen zusammen: ) N E . (1.103) ph
ph
Beispiel: Wie viele Photonen sendet pro Sekunde ein He-Ne-Laser (O = 633 nm) der Strahlungsleistung ) = 3 mW aus?
Lösung: Energie eines Photons: Eph nach Gl. (1.103): N ph
hc0
O
1,96 eV 3,14 10-19 J . Photonenstrom
9,55 1016 s -1 . Ƒ
Photonen besitzen außer einer Energie auch einen Impuls. Sie haben keine Ruhemasse, allerdings kann ihnen durch die Einstein´sche Masse-Energie2 Äquivalenzbeziehung E = mc eine Masse zugeordnet werden. Damit wird der Impuls eines Photons h (1.104) pph =k .
O
=
h 2S
1,055 10 34 Js (h - quer), k
2S
O
(Wellenzahl) .
1.4 Quantennatur des Lichts
63
Beipiel: Welche Kraft übt ein Laserstrahl der Wellenlänge O = 1,06 Pm eines gepulsten Lasers (Pulsleistung ) = 1 MW) während des Pulses auf absorbierendes Material aus? Lösung: Die Impulsänderung eines Photons ist 'p pph h / O . Trifft der PhotoN ph auf das Material, dann ist die Kraft nenstrom F N ph pph ) / c0 3,33 10-3 N . Ƒ 1.4.2 Schwarzer Strahler Ein schwarzer Körper zeichnet sich dadurch aus, dass er auffallende Strahlung vollständig absorbiert. Technisch wird der schwarze Körper realisiert durch einen Hohlraumstrahler (Abb. 1.43). Die Öffnung erscheint einem Betrachter bei Raumtemperatur absolut schwarz. Wird der Hohlraumstrahler geheizt, so leuchtet die Öffnung heller als die Umgebung.
Abb. 1.43. Hohlraumstrahler
Einstein gelang die Herleitung der berühmten Planck´schen Strahlungsformel eines schwarzen Strahlers mithilfe der Lichtquantenhypothese:
Abb. 1.44. a) Wechselwirkung zwischen Photonen und elektronischen Energiezuständen eines Atoms, b) Besetzungszahlen von zwei Energieniveaus
64
1 Grundlagen
Nach Einstein können Photonen und Atome auf drei verschiedene Arten miteinander wechselwirken (Abb. 1.44):
x Absorption: Ein Photon der Energie hf = E2 E1 verschwindet, dafür wird ein Elektron vom Energieniveau E1 auf E2 angehoben. Die Absorptionsrate ist proportional zur Zahl N1 der Atome im niedrigen Energiezustand E1 und zur spektralen Energiedichte wf (Energie pro Volumenund Frequenzeinheit) des Strahlungsfeldes: § dN · ¨ ¸ © dt ¹ Abs
B12 wf N1 .
x Spontane Emission: Nach einer mittleren Lebensdauer W im oberen Energieniveau E2 geht ein Elektron in das tiefere Niveau E1 über, wobei die Differenzenergie als Photon emittiert wird. Die Rate der spontanen Emission ist proportional zur Zahl N2 der Atome im oberen Niveau: § dN · ¸ ¨ © dt ¹sp. Em.
AN2 .
x Stimulierte (induzierte) Emission: Ein Photon der Energie hf = E2 E1 stimuliert ein Elektron zu einem Übergang von E2 nach E1. Das dabei erzeugte Photon verstärkt das primäre. Die Rate der stimulierten Emission ist proportional zur Zahl N2 der Atome im angeregten Niveau und zur spektralen Energiedichte wf des Strahlungsfeldes: § dN · ¨ ¸ © dt ¹stim. Em.
B21 wf N 2 .
Die stimulierte Emission ist der zur Absorption inverse Prozess und wird mit demselben Einstein-Koeffizienten beschrieben: B12 = B21 = B. Im thermischen Gleichgewicht muss die Absorptionsrate und die Emissionsrate gleich sein, also gilt B w f N1
A N 2 B wf N 2 oder
N2 N1
B wf A B wf
.
Aus der statistischen Thermodynamik ist bekannt, dass das Verhältnis der Besetzungszahlen verschiedener Energieniveaus (Abb. 1.44 b) durch den Boltzmann-Faktor gegeben ist: N2 N1
§ E E1 · exp¨ 2 ¸ kT ¹ ©
§ hf · -23 exp¨ ¸ ; k = 1,3810 J/K © kT ¹
1.4 Quantennatur des Lichts
65
ist die Boltzmann-Konstante. Aus den letzten beiden Gleichungen folgt für die spektrale Energiedichte A B
wf ( f , T )
1 § hf exp¨ © kT
· ¸ 1 ¹
.
Für die beiden Einstein-Koeffizienten A und B ergibt sich durch Abzählen der möglichen Schwingungsmoden eines Hohlraumresonators 8S h f 3 c03
A B
und damit das Planck´sche Strahlungsgesetz
w f ( f , T ) df
8S h f 3 1 df . 3 § hf · c0 exp¨ ¸ 1 © kT ¹
(1.105)
Aus der spektralen Energiedichte wf berechnet sich die spektrale Strahldichte Le,f gemäß
Le, f
wf
c0 . 4 S: 0
(1.106)
Die wellenlängenabhängige Form erhält man, wenn man die Frequenz f 2 durch c0/O ersetzt und das Differenzial df durch (c0/O )dO:
Le,O (O , T ) df
2hc02 5
O :0
1 dO . § hc · exp¨ ¸ 1 © OkT ¹
(1.107)
Abb. 1.45. Isothermen der spektralen Strahldichte eines schwarzen Strahlers
66
1 Grundlagen
Wie Abb. 1.45 zeigt, verschiebt sich das Maximum der spektralen Strahldichte mit steigender Temperatur zu kürzeren Wellenlängen. Dieser Sachverhalt wird als Wien´sches Verschiebungsgesetz bezeichnet:
Omax T = 2898 PmK.
(1.108)
Die gesamte Strahldichte eines schwarzen Körpers erhält man durch Integration von Gl. (1.107) über alle Wellenlängen. Dabei ergibt sich f
Le
³
Le,O dO
0
2S 4 k 4T 4 . 15c02 h3: 0
Nach Gl. (1.99) folgt daraus das Stefan-Boltzmann-Gesetz für die spezifische Ausstrahlung
Me
V T 4 , mit V
2S 5k 4 15c02 h3
5,67 108
W . m K4 2
(1.109)
Ein Glühstrahler wie z.B. eine Glühbirne mit Wolframdraht emittiert zwar tendenziell so wie der schwarze Strahler nach Abb. 1.45, allerdings muss die spektrale Strahldichte nach Gl. (1.107) mit dem wellenlängenabhängigen Emissionsgrad H (H < 1) multipliziert werden:
Le,O (O , T ) H (O , T ) Le,O (O , T )schwarzer Strahler .
(1.110)
Ist der Emissionsgrad konstant, spricht man von einem grauen Strahler. 1.4.3 Laser Besetzungsinversion Der Laser ist eine Lichtquelle, deren Funktion auf der von Einstein erkannten Möglichkeit der stimulierten Emission von Strahlung beruht. Nach Abb. 1.44 a) kann durch ein Photon ein Elektron zu einem Übergang von einem angeregten Energieniveau E2 in ein tiefer liegendes Niveau E1 stimuliert werden. Das dabei entstehende Photon verstärkt das auslösende Photon und bei weiteren stimulierten Emissionsakten kann die Zahl der Photonen lawinenartig ansteigen. Das Akronym LASER steht für diese Lichtverstärkung: Light Amplification by Stimulated Emission of Radiation. Im Wellenbild koppelt die infolge des Übergangsaktes erzeugte Welle phasenrichtig an die auslösende Welle an. Es entsteht dadurch ein kohärenter Wellenzug mit langer Kohärenzlänge.
1.4 Quantennatur des Lichts
67
Nach den Ausführungen von Abschn. 1.4.2 ist die Rate der stimulierten Emission
§ dN · ¨ ¸ © dt ¹stim. Em.
B wf N 2 ,
dagegen ist die Rate des Konkurrenzprozesses, der Absorption
§ dN · ¨ ¸ © dt ¹ Abs
B wf N1 .
Beide Raten hängen also von den Besetzungszahlen N1 und N2 der beteiligten Niveaus ab. Nun gilt aber für die Besetzungszahlen
N2 N1
§ E E1 · exp¨ 2 ¸ 1 . kT ¹ ©
Das bedeutet, dass die Zahl N2 der Atome im angeregten Niveau vernachlässigbar klein ist gegenüber der Zahl N1 der Atome im tiefer liegenden Zustand: N2 << N1 (s. Abb. 1.44 b). Eine stimulierte Emission ist also normalerweise nicht zu erwarten. Um eine kräftige stimulierte Emission zu erhalten, muss das Gleichgewicht der Besetzungszahlen gestört werden, es muss eine Besetzungsinversion (N2 > N1) herbei geführt werden. Bei den Festkörperlasern (z.B. Rubin, Nd-YAG) wird die Besetzungsinversion durch optisches Pumpen, d.h. mithilfe einer starken Lampe erreicht (Abb. 1.46). Dabei wird das Licht der Lampe vom Lasermaterial absorbiert und dadurch die Atome in den angeregten Zustand übergeführt. Bei Gaslasern läuft der Mechanismus über Stöße in einer Gasentladungsröhre ab. Bei Halbleiterlasern (Abschn. 1.5.3) werden Elektronen in einen pn-Übergang injiziert. An der Entstehung der Besetzungsinversion sind meist mehrere Energieniveaus beteiligt (Abb. 1.46). Das obere Niveau des eigentlichen Laser-Übergangs muss stets eine große Lebensdauer W aufweisen.
Abb. 1.46. Beteiligung verschiedener Energieniveaus am Laserprozess: a) DreiNiveau-System (z.B. Rubin-Laser), b) Vier-Niveau-System (z.B. Nd-YAG und verschiedene Gaslaser). Die gestrichelten Übergänge sind strahlungslos
68
1 Grundlagen
Rückkopplung Eine hohe Rate stimulierter Emission erfordert außer der Besetzungsinversion auch eine große Energiedichte wf des elektromagnetischen Feldes. Dies wird erreicht durch Rückkopplung der Welle in einen Resonator, der aus Spiegels gebildet wird (Abb. 1.47). Während beispielsweise der rückwärtige Spiegel S1 zu 100% reflektiert, weist der Auskoppelspiegel S2 eine geringe Transmission auf. Er lässt einen geringen Bruchteil der Welle durch und reflektiert den größten Teil wieder zurück in den Resonator.
Abb. 1.47. Laser-Resonator
Im Photonenbild bedeutet die Rückkopplung, dass ein Photon eine lange Verweilzeit im aktiven Medium mit der Besetzungsinversion hat, ehe es den Resonator verlässt. Dadurch kann jedes Photon sehr viele stimulierte Übergänge induzieren. Es gibt verschiedene Resonatortypen mit unterschiedlichen Spiegelgeometrien. Sehr häufig wird der Fabry-Perot-Resonator (Abschn. 1.2.3.4) eingesetzt, der aus planparallelen Endspiegeln gebildet wird. Im Resonator kommt es zur Ausbildung von stehenden Wellen im Abstand O/2 (Abb. 1.28). Mögliche Resonanzfrequenzen, die so genannten longitudinalen Moden des Resonators sind die Frequenzen
fm
m
c , mit m = 1, 2, 3,.... 2L
(1.111)
L ist die Resonatorlänge, c die Lichtgeschwindigkeit im aktiven Medium. Die Länge des Resonators legt damit die Frequenz bzw. Wellenlänge des emittierten Laserlichts fest. Laserschwelle Ein Laser „last“ erst dann, wenn eine Mindest-Besetzungsinversion aufgebaut ist, also eine Schwelle überwunden wird. Denkt man sich in Abb. 1.47 eine elektromagnetische Welle der Leistung )0 startend bei z = 0, dann wird, falls Besetzungsinversion vorliegt, die Leistung exponentiell anwachsen gemäß ) 0 exp( g z ) . g ist der Gewinn-
1.4 Quantennatur des Lichts
69
Faktor (gain factor), der mit wachsender Besetzungsinversion ansteigt. Die internen Verluste bewirken ein exponentielles Abnehmen der Strahlungsleistung gemäß ) 0 exp(D z ) . Wird der Reflexionsgrad des Spiegels S2 mit R2 bezeichnet, dann wird nach der Reflexion die Leistung R2) 0 exp>( g D ) L @ in die aktive Zone zurückgekoppelt. Nach Rücklauf und Reflexion am Spiegel S1 verbleibt die Leistung R1R2) 0 exp>( g D ) 2 L@ . Eine stationäre Schwingung des Laser-Oszillators ist nur möglich, wenn diese Leistung mindestens gleich der Ausgangleistung ist: R1R2) 0 exp>( g D ) 2 L @ t ) 0 .
Daraus folgt der Schwell-Gain (threshold gain): g th
D
1 1 ln . 2 L R1R2
(1.112)
Der Gewinn muss also so groß sein, dass er die internen Verluste und die „Verluste“ durch Auskopplung der Welle an den Spiegeln kompensiert. Impulslaser Wird mithilfe eines Güteschalters (Q-switch) die Resonatorgüte Q während des Pumpvorgangs künstlich niedrig gehalten, so schwingt der Laser nicht an und es wird eine sehr große Besetzungsinversion aufgebaut. Erhöht man dann die Güte, entlädt sich die ganze im Resonator gespeicherte Energie in einem kurzen und leistungsstarken Lichtpuls. Es lassen sich 10 Pulslängen bis herunter zu etwa 1 ns und Leistungen von über 10 W erzielen. Riesenimpulslaser werden vor allem bei der Materialbearbeitung eingesetzt (Tabelle 1.11). Als Q-switch eignen sich besonders PockelsZellen (Abschn. 1.2.2.3). Die verschiedenen Schwingungsmoden nach Gl. (1.111), die in einem Laser gleichzeitig anschwingen können haben normalerweise keine festen Phasenbeziehungen. Wird jedoch ein schneller elektrooptischer Schalter in den Resonator eingebaut, der mit der Frequenz c/2L geschaltet wird, dann findet eine Phasenkopplung der verschiedenen Moden statt. Der Laserstrahl, der bei der Moden-Kopplung (mode-locking) entsteht, bildet einen Zug von extrem scharfen Pulsen im zeitlichen Abstand 't = 2L/c, also der Umlaufszeit im Resonator. Die zeitliche Breite der einzelnen Pulse ist extrem schmal und reicht herunter bis in den Femtosekundenbereich.
70
1 Grundlagen Tabelle 1.11. Anwendungen des Lasers
optische Messtechnik Interferometrie, Holografie, Entfernungsmessung über Laufzeit von Laserpulsen, Laser-Radar, Leitstrahl beim Tunnel- Straßenund Brückenbau
Materialbearbeitung Bohren, Schweißen, Schneiden, Aufdampfen; Auswuchten und Abgleichen von rotierenden und schwingenden Teilen; Trimmen von Widerständen
Nachrichtentechnik Optische Nachrichtenübertragung durch modulierte Laserpulse. Optische Datenspeicherung und Wiedergabe, Ton- und Bildaufzeichnung auf CD und DVD
Medizin und Biologie Anheften der Netzhaut bei Ablösung, Ablösung der Hornhaut, Durchbohren verschlossener Blutgefäße, Zerstörung von Krebszellen, Zahnbehandlung, optisches Skalpell
1.5 Halbleiter-Lichtquellen 1.5.1 Strahlende Rekombination In Halbleitern sind die elektronischen Energieniveaus innerhalb von mehr oder weniger breiten Bändern quasi kontinuierlich verteilt. Bei tiefen Temperaturen füllen die Elektronen alle tief liegenden Energieniveaus bis zur Valenzbandkante EV des obersten Valenzbandes. Durch eine verbotene Zone der Breite Eg (energy gap) getrennt schließt sich das Leitungsband an mit der Leitungsbandkante EL (Abb. 1.48). Durch Energiezufuhr (z.B. thermisch oder optisch) werden Elektronen über die Energielücke aus dem Valenzband ins Leitungsband gehoben, wobei in der Elektronenverteilung des Valenzbandes ein Loch entsteht. Bei dieser Generation eines freien Elektron-Loch-Paars wird im Realkristall ein Elektron aus seiner Bindung gerissen und kann sich frei im Kristall bewegen. Über Platzwechselvorgänge der Elektronen kann sich das Loch ebenfalls bewegen. Löcher tragen daher wie die Elektronen zum elektrischen Strom bei. Sie werden behandelt wie reale Teilchen mit einer positiven Ladung. Bei der Rekombination eines Elektrons aus dem Leitungsband mit einem Loch aus dem Valenzband wird im Kristall eine defekte Bindung restauriert. Im Bändermodell entspricht dies einem Übergang eines Elektrons aus dem Leitungsband ins Valenzband. Wird die dabei frei werdende Energie als Lichtquant abgegeben, spricht man von strahlender Rekombination. Als Konkurrenzprozess findet auch die nicht strahlende Rekombination statt, bei der die frei werdende Energie letztendlich in Wärme (Gitterschwingungen) umgesetzt wird. Die Rekombination ist teilweise recht verwickelt. Abbildung 1.48 zeigt einige Wege auf, über die ein Elektron mit einem Loch rekombinieren
1.5 Halbleiter-Lichtquellen
71
kann. In allen Fällen der strahlenden Rekombination (Abb. 1.48 a) bis d)) entstehen Photonen, deren Energie etwa der Breite der Energielücke entspricht: Eph | EL – EV = Eg.
(1.113)
Die Wellenlänge bzw. Farbe des Lichts hängt also direkt von der Breite der Energielücke des verwendeten Halbleiters ab. Durch Mischen verschiedener Substanzen während der Kristallzucht lassen sich die Energielücken in weiten Grenzen variieren. Folgende Mischkristalle werden häufig eingesetzt:
x ternäre Mischkristalle: GaAs1-xPx (Eg = 1,43–2,27 eV) und Ga1-xAlxAs (Eg = 1,43–2,15 eV), x quaternäre Mischkristalle: In1-xGaxAsyP1-y (Eg = 0,356–2,27 eV). Die Molenbrüche x und y (0 d x,y d 1) bestimmen die Anteile der einzelnen Stoffe.
Abb. 1.48. Rekombinationsprozesse in Halbleitern. Strahlende Übergänge: a) BandBand, b) Donator-Valenzband, c) Leitungsband-Akzeptor, d) Paar-Übergang. Nicht strahlende Übergänge: e) über tiefe Störstellen (traps), f) Auger-Effekt
Nicht alle Halbleitermaterialien kommen als Lichtquellen in Frage und zwar deshalb, weil in manchen Substanzen die Rekombination vorwiegend nicht strahlend abläuft. So haben beispielsweise in den klassischen Halbleitern Si und Ge die Elektronen an der Leitungsbandkante einen Impuls, der verschieden ist vom Impuls der Löcher an der Valenzbandkante. Bei diesen so genannten indirekten Halbleitern ist die strahlende Rekombination verboten, weil sie den Impulserhaltungssatz verletzen würde. Die Rekombination ist nur möglich unter Mitwirkung von Phononen. Das sind quantisierte Gitterschwingungen, die den fehlenden Impulsbetrag zwischen Elektron und Loch aufbringen können. Aus diesem Grund ist die Wahr-
72
1 Grundlagen
scheinlichkeit für eine strahlende Rekombination sehr gering. In den direkten Halbleitern (z.B. GaAs, InP) haben Elektronen und Löcher denselben Impuls und es gibt kein Verbot der strahlenden Rekombination. Beim Auger-Effekt (Abb. 1.48 f) rekombiniert ein Elektron mit einem Loch. Die frei werdende Energie wird aber nicht in Form eines Photons abgegeben, sondern an ein zweites Elektron übertragen, das hoch ins Leitungsband gehoben wird. Durch Zusammenstöße wird diese überschüssige Energie wieder in Form von Gitterschwingungen abgegeben. Die Elektronendichte in einem Halbleiter kann durch Energiezufuhr über die Gleichgewichtsdichte n0 erhöht werden auf n = n0 + 'n. Wird die Anregungsquelle abgeschaltet, dann wird die Überschussdichte 'n wieder abgebaut durch Rekombination, so dass sich nach einiger Zeit wieder der Gleichgewichtszustand einstellt. Die zeitliche Abnahme wird beschrieben durch
d(' n) dt
r
'n
W
.
Die Rekombinationsrate r ist um so größer, je größer die Überschussdichte 'n ist. Die Lösung der Differenzialgleichung ist ' n(t )
' n0 exp(t / W ) .
(1.114)
W ist die Lebensdauer der angeregten Ladungsträger. Hier werden Werte zwischen Nanosekunden (GaAs) und Millisekunden (Ge) beobachtet. Es ist intuitiv klar, dass schnell modulierbare Sender nur aus Materialien mit kurzer Lebensdauer gemacht werden können. Ob nun in einem Halbleiter mehr strahlende oder nicht strahlende Rekombinationsvorgänge ablaufen, kann durch den internen Quantenwirkungsgrad Kint beschrieben werden. Er gibt an, welcher Bruchteil aller Rekombinationsakte strahlend abläuft, also zur Erzeugung eines Photons führt. Bei gut geeigneten Materialien wie z.B. GaAs ist Kint > 90%. Leider können nicht alle im Kristallinnern erzeugten Photonen den Kristall verlassen. Durch Reflexion an den Grenzflächen bis hin zur Totalreflexion werden die meisten Photonen zurück gehalten. Der externe Quantenwirkungsgrad Kext, der angibt, welcher Bruchteil aller Rekombinationsakte zu einem im Außenraum nachweisbaren Photon führt, ist meist nur im Bereich weniger Prozent.
1.5 Halbleiter-Lichtquellen
73
1.5.2 Lumineszenzdioden Injektion und Rekombination Die Lumineszenz- oder Leuchtdiode (Light Emitting Diode, LED) beinhaltet einen pn-Übergang aus einem Halbleitermaterial mit hohem internem Quantenwirkungsgrad (Abb. 1.49). Wird eine Spannung UF in Flussrichtung angelegt, dann wird die im Leerlauf vorhandene Bandverbiegung abgebaut, so dass ein Strom IF in Flussrichtung fließen kann. Dadurch werden Elektronen in die p-Zone und Löcher in die n-Zone injiziert, wo sie sofort mit den dort vorhandenen Majoritätsladungsträgern rekombinieren und Lumineszenzstrahlung aussenden.
Abb. 1.49. Energiebänder in einem pn-Übergang, a) ohne angelegte Spannung, b) bei Betrieb in Flussrichtung. EF: Fermi-Energie
Der externe Quantenwirkungsgrad kann berechnet werden unter der Annahme, dass alle injizierten Ladungsträger in der Nähe des pnÜbergangs rekombinieren. Dann ist die gesamte Rekombinationsrate IF/e. Andererseits ist der Strom der emittierten Photonen nach Gl. (1.103) )e/Eph. Damit ergibt sich
Kext
)e e Eph I F
,
(1.115)
mit )e: Strahlungsleistung, e: Elementarladung, Eph: Photonenenergie und IF: Fluss-Strom. Der Leistungswirkungsgrad KP, der angibt, mit welcher Ausbeute elektrische in optische Energie gewandelt wird, beträgt
KP
)e UF IF
| Kext .
(1.116)
74
1 Grundlagen
Die Lichtausbeute ist nach Gl. (1.100)
KL
)v UF IF
K m V (O ) K P .
(1.117)
Einige Eigenschaften von LEDs sind in Tabelle 1.12 zusammen gestellt. Weißlicht-LEDs bestehen aus blau emittierenden InGaN-LEDs, deren kurzwelliges Licht durch Beschichtung mit Leuchtstoffen (z.B. YAG:Ce) ins Rote transformiert wird. Tabelle 1.12. Eigenschaften von Materialien verschiedener Lumineszenzdioden Farbe IR rot gelb grün blau
Wellenlänge O in nm 930 640 590 570 470
Material GaAs:Si, GaAlAs GaAsP, AlGaInP GaAsP, AlGaInP GaP:N, InGaN GaN, InGaN/AlGaN
externer Quantenwirkungsgrad Kext bis 30% bis 50% bis 25% bis 15% bis 40%
Beispiel: Zu berechnen sind die drei vorstehend definierten Wirkungsgrade für die LED HLMA-CL20 (O = 592 nm, gelb), die betrieben wird mit IF = 20 mA, UF = 1,9 V, )e = 830 PW.
Lösung: Die Photonenenergie ist Eph = 2,1 eV. Damit wird Kext = 2% und KP = 2,2 %. Der Hellempfindlichkeitsgrad beträgt V(592nm) = 0,732, was zu einer Lichtausbeute von KL = 10,9 lm/W führt. Ƒ
Kennlinien Die Strom-Spannungs-Kennlinie einer LED entspricht derjenigen einer normalen Diode mit Fluss-Spannung UF < Eg/e. Die Strahlungsleistung ist nach Gl. (1.115) proportional zum Strom:
) e Kext
Eph e
IF .
(1.118)
Wie Abb. 1.50 zeigt, flacht die Gerade bei großen Strömen ab und geht in eine Sättigung über. Das hängt damit zusammen, dass bei großen Strömen die nicht strahlende Rekombination via Auger-Effekt sehr effizient wird und damit der Quantenwirkungsgrad abnimmt.
1.5 Halbleiter-Lichtquellen
75
Abb. 1.50. Strahlungsleistung und Lichtstrom einer roten LED (O = 660 nm) aus GaAsP in Abhängigkeit vom Strom
Die Spektren von LEDs sind relativ breit (Abb. 1.51). Im sichtbaren Spektralbereich ist die typische Breite (auf halber Höhe gemessen, Full Width at Half Maximum) 'OFWHM = 30 nm bis 40 nm. Nach der klassischen Thermodynamik lässt sich argumentieren, dass die Elektronen und Löcher aus einem Energiebereich von ungefähr (3/2)kT (k: Boltzmann-Konstante, T: absolute Temperatur) stammen. Insgesamt ergibt sich damit eine Energieunschärfe von 'E | 3kT. Damit ist die erwartete spektrale Breite 'O |
3k T 2 O , h c0
(1.119)
was relativ gut mit den Messungen übereinstimmt. Das räumlich Abstrahlverhalten des Kristalls entspricht dem eines Lambert-Strahlers (Abschn. 1.3.1), das aber durch entsprechend geformtes Vergussmaterial (Epoxid-Harz) in weiten Grenzen verändert werden kann.
Abb. 1.51. Spektrale Strahlungsleistung )e,O(O) von drei Leuchtdioden (grün, gelb und rot)
76
1 Grundlagen
Mit steigender Temperatur ändern sich die optischen Parameter wie folgt:
x Die Emissionswellenlänge verschiebt sich zu größeren Werten infolge der Abnahme der Energielücke Eg(T), x die spektrale Breite 'O steigt nach Gl. (1.119), x die Strahlungsleistung nimmt ab wegen zunehmender nicht strahlender Rekombinationen. Im Bereich der Raumtemperatur lassen sich Temperaturkoeffizienten der relevanten Größen bestimmen, die in Tabelle 1.13 zusammengestellt sind. Tabelle 1.13. Temperaturkoeffizienten einiger Parameter. Lumineszenzdioden Temperaturkoeffizient Wellenlänge O Strahlungsleistung )e Lichtstrom )v
Einheit nm/K %/K %/K
grüne LED 0,1 -0,2 -0,3
rote LED 0,18 -0,5 -1,6
IRED 0,24 -0,8 –
Modulationsverhalten Zur Modulation der Strahlungsleistung einer LED wird der Strom moduliert. Bei sinusförmiger Modulation um den Vorstrom (bias) IB mit der Amplitude Iˆ gemäß i (t ) I B Iˆexp( jZ t ) wird die Strahlungsleistung ebenfalls sinusförmig moduliert: ) (t ) ) B )ˆ exp> j(Z t M )@ . Die Amplitude )ˆ ist nicht konstant, sondern wird mit zunehmender Modulationsfrequenz kleiner entsprechend
)ˆ (Z ) Kext
Eph ˆ I H (Z ) )ˆ (Z e
0) H (Z ) .
(1.120)
Nimmt die Modulations-Übertragungsfunktion
H (Z )
1 1 (ZW ) 2
(1.121)
auf 0,5 ab, dann ist die optische 3-dB-Grenzfrequenz erreicht. Aus Gl. (1.121) folgt, dass die Grenzfrequenz korreliert ist mit der Lebensdauer W der Minoritäten:
f 3dB
3 2S W
0,276
W
(1.122)
Praktisch können LEDs moduliert werden bis zu Frequenzen von etwas über 100 MHz.
1.5 Halbleiter-Lichtquellen
77
Bauformen Lumineszenzdioden werden meist als Flächenstrahler ausgebildet, bei denen die Strahlung durch die Deckfläche ausgesandt wird (Abb. 1.52). Wird das Licht in Längsrichtung des pn-Übergangs ausgekoppelt, spricht man von einem Kantenstrahler. Dieses Prinzip wird vorzugsweise bei Laserdioden realisiert.
Abb. 1.52. Oberflächenstrahlende LEDs, a) und b) planarer Aufbau, c) BurrusTyp zu Einstrahlung in einen Lichtwellenleiter (LWL)
1.5.3 Halbleiter-Laser 1.5.3.1 Laserstrukturen Die Laserdiode besteht aus einem hoch dotierten pn-Übergang. Bei hohen Dotierungskonzentrationen „entarten“ die Halbleiter, d.h. die Störstellenniveaus verschmelzen mit den Bändern, so dass Elektronen mit nahezu metallischer Dichte im Leitungsband des n-Gebiets und ebenso Löcher im Valenzband des p-Gebiets vorliegen. Die Fermi-Energie liegt in diesem Fall innerhalb der Bänder (Abb. 1.53). Wird eine Spannung in Flussrichtung angelegt, stellt sich im Übergangsgebiet die Situation ein, dass Elektronen
Abb. 1.53. Bandstruktur einer Laserdiode, a) spannungslos, b) Betrieb in Flussrichtung
78
1 Grundlagen
mit hoher Konzentration energetisch über Löchern mit ebenfalls hoher Konzentration zu liegen kommen. Es liegt damit eine perfekte Besetzungsinversion vor, die erste Laserbedingung nach Abschn. 1.4.3. Die Besetzungsinversion ist dann erreicht, wenn EFe EFh ! hf ! Eg wird (s. Abb. 1.53 b). Anschaulich bedeutet dies, dass ein Photon der Energie hf innerhalb des aktiven Bereichs nicht absorbiert werden kann (dafür bräuchte es die Energie EFe EFh ), sondern lediglich stimulierte Emission hervorrufen kann. In der Geometrie der Abb. 1.53 sind übrigens nur die Photonen „erfolgreich“, die sich senkrecht zur Zeichenebene bewegen, denn nur sie verbleiben in der aktiven Zone. Die zweite Laserbedingung, die optische Rückkopplung in einem Resonator, wird beim Fabry-Perot-Laser durch die spiegelnden Endflächen des Kristalls realisiert. Infolge des hohen Gains der Halbleiterlaser genügt die etwa 30%ige Reflektivität der planparallelen Spaltflächen. Eine derartige Laserdiode ist in Abb. 1.54 dargestellt. Die Weite (Höhe) der aktiven Zone ergibt sich aus der Summe der Diffusionslängen der Elektronen und Löcher zu Ln + Lp | 20 Pm.
Abb. 1.54. Aufbau einer einfachen Fabry-Perot-Laserdiode. Länge 200–500 Pm, Breite 100–250 Pm
Eine Homostruktur-Laserdiode nach Abb. 1.54 hat sehr große Verluste 5 2 und benötigt eine Schwellstromdichte von etwa 10 A/cm . Um die Verluste zu reduzieren, wurden Hetero-Strukturen entwickelt, bei denen die Weite der aktiven Zone auf Werte < 0,5 Pm eingeengt wird (carrier confinement). Dies wird dadurch realisiert, dass der eigentlich aktive Halbleiter beidseitig von Materialien mit höherer Energielücke umgeben wird (Abb. 1.55). Infolge des höheren Brechungsindex der aktiven Schicht werden die Photonen wie in einem Lichtwellenleiter in der aktiven Zone gehalten (photon confinement). Doppelheterostrukturen erreichen Schwellstromdichten von etwa 2 500 A/cm , womit cw-Betrieb (continuous wave) bei Raumtemperatur möglich wird. Laser für längere Wellenlängen (1,3 Pm, 1,55 Pm), wie sie in der optischen Nachrichtenübertragung auf Lichtwellenleitern eingesetzt werden, bestehen aus InGaAsP, umgeben von InP.
1.5 Halbleiter-Lichtquellen
79
Abb. 1.55. Doppelheterostruktur-Laser aus GaAs/GaAlAs (O | 850 nm), a) Aufbau, b) Bänderschema, c) Brechungsindex, d) Verlauf der Photonendichte
Wird die Breite d der eingebetteten Schicht stark verkleinert (typischerweise d < 20 nm), dann treten interessante Quantenphänomene auf. Die Elektronenbewegung innerhalb eines solchen Potentialtopfs (quantum well) senkrecht zur Schicht wird quantisiert. Die Lösung der SchrödingerGleichung für diesen Fall zeigt, dass der Wellenvektor nur folgende Werte annehmen kann: S kn n , mit n = 1, 2, 3... d Die Energieeigenwerte sind dann
En
= 2k 2 2m
h2 n2 , 2 8m d
(1.123)
wobei m die effektive Masse der Elektronen bzw. Löcher ist. Es entstehen damit innerhalb des Quantentopfs Sub-Niveaus der Elektronen und Löcher zwischen denen die strahlenden Übergänge ablaufen (Abb. 1.56). Die Lage der Sub-Niveaus ist nach Gl. (1.123) über die Dicke d der Schicht einstellbar. Quantum-well-Laser zeigen gegenüber konventionellen HeterostrukturLasern einen geringeren Schwellstrom, sie sind spektral schmalbandiger und weniger temperaturempfindlich. Diese besonderen Eigenschaften können noch dadurch verstärkt werden, dass mehrere Quantenfilme, jeweils
80
1 Grundlagen
Abb. 1.56. Elektronische Energiezustände in einem zweidimensionalen Quantenfilm (quantum well)
getrennt durch Barrieren aus Material mit höherem Bandgap, hintereinander angeordnet werden. Derartige Strukturen werden als Multi-QuantumWell (MQW) bezeichnet. Die breite Lichtemission des Lasers von Abb. 1.54 ist häufig störend (z.B. bei der Einkoppelung in einen Lichtwellenleiter), zudem ist der Schwellstrom wegen der großen Fläche sehr groß. Bei den so genannten Streifenlasern (stripe laser) begrenzt man deshalb den Laserbetrieb auf einen schmalen Streifen, der eine laterale Breite von etwa 2 Pm bis 5 Pm aufweist (Abb. 1.57). Es werden zwei Verfahren verwendet:
x Beim gewinngeführten (gain-guided) Laser wird der Strom nur in einem schmalen Streifen durch den p-Kontakt zugeführt. Dadurch entsteht Besetzungsinversion und Gain nur in einem mehr oder weniger breiten Bereich der aktiven Zone. x Beim indexgeführten (index-guided) Laser wird der aktive Streifen beidseitig von einem Material mit höherer Energielücke und kleinerem Brechungsindex umgeben, so dass aktive Wellenführung zustande kommt. Da die eigentliche Doppelheterostruktur von außen nicht mehr sichtbar ist, spricht man von Lasern mit vergrabener Heterostruktur (Buried Heterostructure Laser, BH-Laser).
Abb. 1.57. Beispiele für den Aufbau von Streifenlasern, a) gain-guiding, b) indexguiding (BH-Laser)
1.5 Halbleiter-Lichtquellen
81
Nach den Ausführungen von Abschn. 1.4.3 setzt die stimulierte Emission eines Lasers erst nach Überschreiten einer Schwelle ein, wenn der optische Gewinn alle Verluste überwiegt. Abbildung 1.58 zeigt eine typische Kennlinie der Strahlungsleistung in Abhängigkeit vom Strom. Für Ströme unterhalb des Schwellstroms Ith emittiert die Diode nicht kohärentes Licht infolge spontaner Emission. Oberhalb Ith setzt die Laseraktion ein und die Strahlungsleistung steigt steil an. Der im letzten Abschnitt in Gl. (1.115) definierte externe Quantenwirkungsgrad wird jetzt differenziell formuliert:
Kext
e d) e , Eph d I F
(1.124)
Typische Werte liegen im Bereich 25% bis 40% pro Endfläche.
Abb. 1.58. Strom-Leistungs-Kennlinie eines InGaAsP-Lasers mit O = 1,3 Pm
Aus Abb. 1.58 geht hervor, das der Schwellstrom mit steigender Temperatur ansteigt. Die Verschiebung wird durch die empirische Beziehung
I th
I 0 exp(T / T0 ) ,
(1.125)
beschrieben. Die charakteristische Temperatur beträgt für
x GaAlAs-Laser: 120 K d T0 d 230 K, x InGaAsP-Laser: 60 K d T0 d 80 K. Beispiel: Beim Laser der Abb. 1.58 ist Ith,1(25 qC) = 22 mA und Ith,2(50 qC) = 32 mA. Wie groß ist der Schwellstrom bei 0 qC?
82
1 Grundlagen
Lösung: Aus Gl. (1.125) folgt für die charakteristische Temperatur des verwendeten Lasers T1 T2 T0 66,7 K und für den gesuchten Schwellstrom ln( I th,1 / I th,2 ) I th (0 D C)
22 mA exp(-25 K/66,7 K) 15 mA .
Ƒ
Da nicht nur der Schwellstrom und damit die Strahlungsleistung von der Temperatur abhängt, sondern besonders auch die spektralen Eigenschaften, werden Laser, bei denen diese Größen kritisch sind, mithilfe von kleinen Piezo-Kühlern temperaturstabilisiert. 1.5.3.2 Optische Eigenschaften Halbleiterlaser emittieren keinen parallelen Laserstrahl, sondern stark divergentes Licht (Abb. 1.59). Die Lichtwelle, die innerhalb des Kristalls auf etwa die Abmessungen des aktiven Streifens begrenzt ist, wird beim Austritt ins Freie gebeugt, ähnlich der Beugung am Spalt bzw. an der Rechteckblende. Infolge der kleinen Streifenhöhe in transversaler Richtung ist der Divergenzwinkel 4A | 50 q relativ groß. Die Streifenbreite in lateraler Richtung ist größer und deshalb der Divergenzwinkel 4 || | 10 q kleiner.
Abb. 1.59. Abstrahlverhalten eines Streifenlasers im Fernfeld
Durch Kollimationsoptiken mit anamorphotischen Prismen kann der divergente elliptische Strahl in einen kreisrunden Parallelstrahl transformiert werden. Abbildung 1.60 zeigt die spektrale Strahlungsleistung eines typischen Fabry-Perot-Lasers. Die Einhüllende des Spektrums hat eine Breite von 'O | 4 nm. Innerhalb dieser Kurve ist der Gewinn höher als die Verluste und daher stimulierte Emission möglich. Welche genauen Wellenlängen
1.5 Halbleiter-Lichtquellen
83
Abb. 1.60. Longitudinale Schwingungsmoden eines Multimode-Fabry-Perot-Lasers
nun tatsächlich verstärkt werden, bestimmt der Resonator. Durch die Reflexionen zwischen den Endflächen bilden sich im aktiven Bereich stehende Wellen aus (s. Abb. 1.47). Nur solche Wellen können sich durchsetzen, bei denen die Resonatorlänge L ein Ganzes Vielfaches der halben Wellenlänge ist: mO/2 = nL. Damit sind die Wellenlängen der so genannten longitudinalen Moden gegeben durch
Om
2Ln , mit m = 1, 2, 3... m
(1.126)
Beispiel: Ein Laser emittiert bei O | 1300 nm. Was sind die genauen Emissionswellenlängen, wenn die Länge des Kristalls L = 300 Pm beträgt und der Brechungsindex n = 3,3?
Lösung: Aus Gl. (1.126) folgt, dass die Mode mit der Ordnungszahl m = 1523 der Wellenlänge 1300 nm am nächsten kommt. Die genauen Wellenlängen einiger Moden betragen unter Vernachlässigung der Dispersion n(O): O1523 = 1300,07 nm; O1524 = 1299,21 nm; O1522 = 1300,92 nm. Der Modenabstand ist GO | 0,85 nm. Ƒ
Der Abstand benachbarter Moden beträgt
GO
O § n dn · 2 L¨ ¸ © O dO ¹
|
O2 2Ln
.
(1.127)
Die vereinfachte Beziehung gilt, wenn die Dispersion dn/dO vernachlässigt wird.
84
1 Grundlagen
Wie Gl. (1.27) zeigt, hängt der Modenabstand von der Resonatorlänge ab. Verkürzt man die Laserlänge, kann der Abstand GO größer werden als die Breite der Gain-Kurve, was dazu führt, dass nur noch eine Mode anschwingt. Aus dem Multimode-Laser wird dann ein Monomode-Laser. Dies wird z.B. realisiert bei den VCSELs (Abschn 1.5.3.5). 1.5.3.3 Modulation Die Strahlungsleistung einer Laserdiode ist direkt proportional zur Photonenzahl P im Resonator und kann am einfachsten direkt über den Strom moduliert werden (Abb. 1.61). Wie die Photonenzahl auf Stromänderungen und damit Änderungen der Elektronenzahl N reagiert, wird durch folgende Ratengleichungen beschrieben:
dP dt dN dt
(G J ) P Rsp I J e N G P. e
(1.128)
G: Rate der stimulierten Emission (linear abhängig von N), J: Photonenzerfallsrate infolge interner Verluste und Auskoppelung durch die Spiegel, Rsp: Rate der spontanen Emission, I: Strom, Je: Rekombinationsrate der Elektronen (kompliziert abhängig von N). Das System von gekoppelten Differenzialgleichungen ist numerisch lösbar. Für das stationäre Gleichgewicht ergibt sich die Kennlinie der Abb. 1.58. Für den Fall eines Stromsprungs zur Zeit null auf einen konstanten Wert I steigt nach Abb. 1.62 zunächst die Elektronenzahl N monoton
Abb. 1.61. Wahl des Arbeitspunkts bei der Modulation von Laserdioden a) Analogübertragung, b) Digitalübertragung
1.5 Halbleiter-Lichtquellen
85
Abb. 1.62. Zeitlicher Verlauf der Elektronenzahl N und der Photonenzahl P im Resonator nach einem Stromsprung
an, bis die Schwelle Nth überschritten wird. Erst dann steigt die Photonenzahl P steil an, was dazu führt, dass infolge der einsetzenden starken stimulierten Emission die Elektronenzahl wieder unter die Schwelle absinkt. Daraufhin bricht die Photonenzahl ein, die Elektronenzahl erholt sich und das Spiel beginnt aufs Neue. Die Schwingungen der Photonenzahl und damit auch der Ausgangsleistung werden als Relaxationsoszillationen bezeichnet und haben typischerweise Frequenzen von einigen GHz. Die Zeitverzögerung 't vom Einschalten des Stromes bis zum Beginn der stimulierten Emission liegt im Bereich weniger Nanosekunden. Durch einen Vorstrom IB (bias) kann die Verzögerungszeit verkürzt werden. Näherungsweise gilt mit der Lebensdauer W der angeregten Elektronen: ' t W ln
I IB . I I th
(1.129)
Bei sinusförmiger Modulation des Stroms um den Vorstrom IB entsprechend i (t ) I B Iˆ exp( jZ t ) wird auch die Strahlungsleistung ) sinusförmig moduliert, wobei die Amplitude folgendermaßen von der Frequenz abhängt: )ˆ (Z ) )ˆ (0) H (Z ) . Die Modulations-Übertragungsfunktion ergibt sich zu (s. Gl. (1.121) für LEDs)
Z 02
H (Z )
Z
2 0
Z
4Z 2
W
2 2
2 rel
.
(1.130)
86
1 Grundlagen
Wrel ist die Zeitkonstante, mit der die Relaxationsschwingungen gedämpft werden, 2 2 Z rel 1 / W rel | Z rel
Z0
entspricht der Kreisfrequenz der Relaxationsschwingungen. H(Z) zeigt bei der Frequenz der Relaxationsoszillationen eine deutliche Resonanzüberhöhung (Abb. 1.63). Definiert man als 3-dB-Grenzfrequenz wieder den Wert, bei dem die Übertragungsfunktion auf 0,5 abgenommen hat, dann ist aus Abb. 1.63 ersichtlich, dass Halbleiterlaser bis in den GHzBereich modulierbar sind.
Abb. 1.63. Modulations-Übertragungsfunktion für frel = 3 GHZ und Wrel = 1,5 ns
Laser-Chirp Die Modulation des Stroms führt zu einer Modulation der Elektronendichte im aktiven Medium. Da der Brechungsindex n der Halbleiter von der Dichte der freien Elektronen abhängt, wird auch der Brechungsindex mit der Modulationsfrequenz moduliert. Nun ist aber nach Gl. (1.126) die Emissionswellenlänge bzw. die Lichtfrequenz direkt vom Brechungsindex abhängig. Das bedeutet, dass mit der Intensitätsmodulation automatisch auch immer eine Frequenzmodulation einhergeht. Dieses „Zwitschern“ der Frequenz wird im Englischen als chirp oder chirping bezeichnet. Wie aus der klassischen Frequenzmodulation bekannt ist, entstehen im Spektrum Seitenbanden im Abstand der Modulationsfrequenz. Die Amplituden der Seitenbanden werden durch Bessel-Funktionen Ji(E) bestimmt: sFM (t )
sˆT
i f
¦ J i ( E ) cos(ZT iZ ) .
(1.131)
i f
ZT ist die Träger- (Licht) Kreisfrequenz, Z die Modulationskreisfrequenz, E der FM-Modulationsindex.
1.5 Halbleiter-Lichtquellen
87
Abb. 1.64. Optische Spektren eines 1,3 Pm-DFB-Lasers bei Modulation, gemessen mit einem Fabry-Perot-Interferometer. Modulationsfrequenz 300 MHz, m = Î/(IB – Ith): Modulationsgrad, E: FM-Modulationsindex. a) m = 0,06; b) m = 0,20, E = 2,40, J0 = 0; c) m = 0,32, E = 3,83, J1 = 0; d) m = 0,43, E = 5,14, J2 = 0; e) m = 0,54, E = 6,38, J3 = 0
88
1 Grundlagen
Wie Abb. 1.64 zeigt, wird mit zunehmendem Modulationsindex das Spektrum stark verbreitert. Beispielsweise nimmt beim Laser der Abb. 1.64, der ohne Modulation ein Monomode-Laser mit einer Linienbreite von 20 MHz ist, das Spektrum beim Modulationsindex E = 6,38 eine Bandbreite von über 4,2 GHz ein. Da die chromatische Dispersion eines Lichtwellenleiters mit der Bandbreite der Lichtquelle ansteigt (s. Kap. 3), wird für hochbitratige Anwendungen häufig nicht der Strom der Laserdiode moduliert. Vielmehr wird der Lichtstrahl außerhalb des Resonators moduliert, beispielsweise mittels eines Mach-Zehnder-Interferometers. 1.5.3.4 DFB- und DBR-Laser Fabry-Perot-Laser sind vorzugsweise Multimode-Laser. Selbst wenn die Seitenmoden im stationären Betrieb genügend unterdrückt sind, dass man von einem Monomode-Laser sprechen kann, wachsen bei Modulation die longitudinalen Seitenmoden im Vergleich zur dominierenden Mode. DFBund DBR-Laser sind dagegen dynamische Einmoden-Laser mit einer Seitenmodenunterdrückung von über 30 dB. Im Gegensatz zu den Fabry-Perot-Lasern, bei denen die Rückkopplung an den Resonatorenden erfolgt, findet sie beim DFB-Laser (Distributed Feed Back) verteilt über die ganze Länge des Resonators statt. Die Rückkopplung wird jetzt wellenlängenabhängig und kann für eine bestimmte Mode optimiert werden. Verteilte Rückkopplung erhält man, indem beim DFB-Laser oberhalb der aktiven Zone, beim DBR-Laser (Distributed Bragg Reflector) beidseitig der aktiven Zone ein Gebiet mit periodisch variierendem Brechungsindex hergestellt wird (Abb. 1.65). Dies kann z.B. so realisiert werden, dass nach dem Beispiel von Abschn. 1.2.3.1 zwei schräg verlaufende Laserstrahlen zur Interferenz gebracht werden, wodurch ein optisches Liniengitter entsteht. Mittels photochemischer Ätzverfahren lässt sich so in den Halbleiter ein wellenförmigen Muster ätzen, das mit einem anderen Material mit anderem Brechungsindex überwachsen wird.
Abb. 1.65. Aufbau eines a) DFB- und b) DBR-Lasers
1.5 Halbleiter-Lichtquellen
89
Wenn, wie in Abb. 1.65 b) angedeutet, die Welle an den periodischen Strukturen teilweise reflektiert wird, dann interferieren die reflektierten Anteile nur dann konstruktiv, wenn ihre Wellenlänge OB die so genannte Bragg-Bedingung erfüllen: 2n / , mit m = 1, 2, 3... m
OB
(1.132)
/ ist die Undulationsperiode, n der Brechungsindex. Die Theorie gekoppelter Wellen zeigt, dass an der Bragg-Wellenlänge
OB selbst keine Emission stattfindet, sondern symmetrisch dazu bei den Wellenlängen
Oq
§ ©
1 · O2B , mit q = 0, 1, 2... 2 ¹ 2n L
OB r ¨ q ¸
(1.133)
Es könnten also im Prinzip zwei Moden bei den Wellenlängen
OB r
1 O2B 2 2n L
anspringen. Um die Symmetrie zu stören und für eindeutige Verhältnisse zu sorgen, wird meist ein O/4-Phasensprung in das Gitter eingebaut (Abb. 1.66). In diesem Fall entsteht nur eine Mode mit der Wellenlänge OB. Um Störungen von den Kristallenden zu vermeiden, werden diese entspiegelt.
Abb. 1.66. Modulation des Brechungsindex mit O/4- (//2)-Phasensprung
Außer der erwähnten dynamischen Einmodigkeit der DFB- und DBRLaser haben sie den Vorteil, dass sie zusammen mit anderen Bauelementen auf einem Chip integrierbar sind, denn sie benötigen nicht den Brechungsindexsprung zwischen Kristall und Luft wie die Fabry-Perot-Laser. 1.5.3.5 Oberflächenemittierende Laser (VCSEL) Die bisher beschriebenen Laser sind Kantenemitter (edge emitter). Nun gibt es auch die Möglichkeit, Laser zu bauen, bei denen das Licht wie bei den LEDs durch die Deckfläche abgestrahlt wird. Diese VCSELs (Vertical-Cavity Surface-Emitting Lasers) haben außerordentlich interessante eigenschaften. Abbildung 1.67 zeigt den prinzipiellen Aufbau.
90
1 Grundlagen
Abb. 1.67. Vertikal-Laserdiode (VCSEL), a) Aufbau, b) Reflexion am oberen Spiegel
Die aktive Schicht besteht aus einem oder mehreren Quantenfilmen (MQW, Abschn. 5.3.1). Als Material eignet sich GaAs für O = 750 nm bis 850 nm oder InGaAs für 900 nm bis 1050 nm. Durchquert ein Photon die dünne Schicht in senkrechter Richtung, ist die Wahrscheinlichkeit für das Auslösen eines stimulierten Emissionsaktes sehr gering. Deshalb müssen die Photonen sehr häufig in die aktive Zone zurück gespiegelt werden. Man benötigt also zur Ausbildung eines wirkungsvollen Resonators Spiegel mit hoher Reflektivität. Nimmt man vereinfachend an, dass R1 = R2 = R und vernachlässigt man interne Verluste, so folgt aus Gl. (1.112) für die notwendige Reflektivität
R exp( g th d ) .
(1.134)
-1
Bei einem Gewinnfaktor von gth = 1000 cm und einer Dicke der MQWSchicht von d = 50 nm ergibt sich R = 99,5%. Derartig hohe Reflektivitäten sind mit Metallspiegeln nicht realisierbar, sondern nur mit dielektrischen Spiegeln. Dazu werden nach Abb. 1.67 b) abwechselnd Schichten von AlAs und GaAs mit jeweils der Dicke O/(4n) hinter einander gestapelt. Die geometrische Wegdifferenz der an zwei aufeinander folgenden Schichten reflektierten Wellen ist eine halbe Wellenlänge (Phasendifferenz S). Da jeweils bei der Reflexion an der Schicht mit größerem Brechungsindex (GaAs) ein zusätzlicher Phasensprung um S auftritt, interferieren alle reflektierten Wellen konstruktiv. Obwohl der Reflexionsgrad an einer Grenzfläche lediglich
§n · n R ¨¨ GaAs AlAs ¸¸ © nGaAs nAlAs ¹
2
§ 3,51 2,97 · ¸ ¨ © 3,51 2,97 ¹
2
7 10 3
beträgt, steigt R bei 20 und mehr Schichtenpaaren auf den gewünschten Wert an.
1.6 Halbleiter-Detektoren
91
Eigenschaften Der Schwellstrom von VCSELs ist sehr gering, typischerweise um 1 mA. Da der Resonator sehr kurz ist, schwingt innerhalb der Gain-Kurve nur eine longitudinale Mode an. VCSELs sind daher auch unter Modulation bis zu einigen GHz Monomode-Laser mit einer Seitenmodenunterdrückung von über 40 dB. Der emittierte Strahl von einigen mW Leistung weist nicht die Unsymmetrie auf wie beim Fabry-Perot-Laser. Vielmehr ist der Strahlquerschnitt kreisrund und der Divergenzwinkel 4 < 10 q. Mehrere VCSELs lassen sich in einer Reihe oder einer zweidimensionalen Matrix auf einem Wafer anordnen und gleichzeitig prozessieren. Damit wird die Produktion sehr wirtschaftlich. Da die verschiedenen Laser einer Matrix getrennt ansteuerbar sind, lassen sich raffinierte optische Busverbindungen und ähnliches aufbauen. VCSELs für die Wellenlängen 1,3 Pm und 1,55 Pm sind schwierig herzustellen, weil Spiegel aus InGaAsP- und InP-Schichten eine sehr geringe Reflektivität aufweisen. Vielversprechende Ergebnisse wurden erzielt mit MQW-Strukturen auf InGaAsN-Basis.
1.6 Halbleiter-Detektoren 1.6.1 Absorption in Halbleitern Licht kann in einem Halbleiter dann absorbiert werden, wenn die Energie der Photonen ausreicht, um Elektronen aus ihren Bindungen zu reißen. Im Bändermodell wird dieser Vorgang so dargestellt, dass ein Elektron aus dem Valenzband mithilfe der Photonenenergie ins Leitungsband gehoben wird (Abb. 1.68 a). Da hierbei im Valenzband ein Loch zurück bleibt, erzeugt jedes absorbierte Photon ein Elektron-Loch-Paar.
Abb. 1.68. Absorption eines Photons, a) Schema im Bändermodell, b) Absorptionskoeffizienten verschiedener Halbleiter
92
1 Grundlagen
Lässt man Feinheiten wie die möglicherweise vorhandene Mitwirkung von Störstellen oder die Bildung von Exzitonen (gekoppelte ElektronLoch-Paare) beiseite, dann ist die Voraussetzung für den Absorptionsakt, dass die Photonenenergie Eph größer ist als die Breite der Energielücke Eg:
Eph t Eg
EL EV .
(1.135)
Umgekehrt muss die Wellenlänge des Lichts kleiner sein als eine Grenzwellenlänge
O d Og
hc0 Eg
1,24 Pm eV . Eg
(1.136)
Beispiel: Die Energielücke von Silicium beträgt Eg = 1,11 eV. Welche Wellenlängen werden in Si absorbiert?
Lösung: Absorption findet statt für O < 1,12 Pm. Für O > 1,12 Pm ist Si transparent.
Ƒ
Dringen Photonen, deren Energie der Bedingung von Gl. (1.135) genügt, in einen Halbleiter ein, dann nimmt mit zunehmender Eindringtiefe der Photonenstrom ab, bis schließlich bei genügender Kristalldicke alle Photonen verschwunden sind. Die Dichte der Photonen und damit auch die Strahlungsleistung ) nimmt ins Kristallinnere hinein exponentiell ab:
) ( z ) ) 0 exp(D z ) .
(1.137)
Der Exponent D in diesem Lambert-Bouguer’schen Gesetz ist der Absorptionskoeffizient (Abb. 1.68 b). D ist für Eph < Eg null und steigt für Eph > Eg steil an. In der Entfernung l 1/ D (1.138) von der Oberfläche, die als Eindringtiefe bezeichnet wird, hat die Photonendichte auf 1/e abgenommen. In der Tiefe z = 5/D sind praktisch alle Photonen absorbiert. Beispiel: Wie groß ist die Eindringtiefe von Strahlung der Wellenlänge O = 700 nm in Si?
Lösung: Nach Abb. 1.68 b) ist der Absorptionskoeffizient D(0,7 Pm) = 2,5 103 cm-1. Damit ist die Eindringtiefe l = 4 Pm bzw. 5l = 20 Pm. Ƒ
1.6 Halbleiter-Detektoren
93
1.6.2 Fotoleiter Der Fotoleiter oder Fotowiderstand (LDR, Light Dependent Resistor) ist ein passives Bauelement, dessen Widerstand sich bei Bestrahlung verringert. Die Leitfähigkeit eines Halbleiters berechnet sich aus
N
e ( nP n pP p ) .
(1.139)
n und p sind die Konzentrationen der freien Elektronen bzw. Löcher, Pn und Pp die entsprechenden Beweglichkeiten. Da jedes absorbierte Photon ein Elektron-Loch-Paar erzeugt, erhöht sich die Dichte der Elektronen und Löcher und das Bauelement wird leitfähiger. Der Widerstand sollte in etwa umgekehrt proportional zur Bestrahlungsstärke Ee sein. In der Praxis wird der Zusammenhang beschrieben mit
R ~ Ee-J ,
(1.140)
wobei die Steilheit J | 1 ist. Zum Nachweis von sichtbarem Licht sind vor allem intrinsische Fotoleiter aus CdS und CdSe geeignet. Sie werden häufig eingesetzt bei Belichtungsmessern, Flammenwächtern usw. Für das nahe IR kommen Halbleiter mit kleinem Bandgap in Frage wie PbS, InAs und InSb. Fotoleiter sind meist relativ träge und spielen deshalb keine Rolle beim Nachweis schnell modulierter Strahlung. 1.6.3 Fotodioden 1.6.3.1 Wirkungsweise von Sperrschicht-Detektoren Die Fotodiode ist ein aktives Bauelement, das bei Bestrahlung eine elektrische Spannung bzw. einen Strom abgibt. Basis ist der in Abb. 1.69 dargestellte pn-Übergang.
Abb. 1.69. Bänderschema einer Fotodiode ohne äußere Spannung. Die Lage der Fermi-Energie ist gestrichelt gezeichnet
94
1 Grundlagen
Erzeugt ein Photon ausreichender Energie in der Raumladungszone ein Elektron-Loch-Paar, so findet aufgrund des eingebauten Feldes eine Ladungstrennung statt. Das Elektron wird auf die n-Seite, das Loch auf die pSeite befördert. Im Außenkreis der Diode fließt pro getrenntem ElektronLoch-Paar genau eine Elementarladung. Bei Bestrahlung mit dem Photonenfluss N ph ) e / Eph fließt der Fotostrom
I ph
)e Eph
e.
Nicht jedes Photon trägt zu einem nachweisbaren Elektron-Loch-Paar bei. Wird der pn-Übergang von Ab. 1.69 von links her (p-Gebiet) bestrahlt, dann werden die meisten Photonen nicht in der Raumladungszone (RLZ) absorbiert. Beispielsweise dringen Photonen mit geringer Energie weit ins n-Gebiet ein, wo sie ihr Elektron-Loch-Paar erzeugen. Nun muss das Loch erst durch einen langwierigen Diffusionsprozess an den Rand der RLZ diffundieren, bevor es durch das elektrische Feld auf die p-Seite befördert und damit nachgewiesen wird. Dringen Photonen zu tief ein, dann werden die gebildeten Elektron-Loch-Paare durch Rekombination verschwinden, ehe sie nachgewiesen sind. Der Fotostrom einer Diode, der die Richtung eines Sperrstroms hat, beträgt damit
I ph
)e Eph
e K (O ) .
(1.141)
Die Quantenausbeute K(O) (K < 1) gibt an, welcher Bruchteil der eindringenden Photonen zu einem nachweisbaren Elektron-Loch-Paar führt.
Abb. 1.70. Empfindlichkeit für Fotodioden aus Si, Ge und In0,53Ga0,47As. Die Gerade entspricht einer idealen Fotodiode mit Quantenausbeute K = 100%
1.6 Halbleiter-Detektoren
95
Der Fotostrom ist die interessanteste Größe zum Nachweis elektromagnetischer Strahlung, denn er ist nach Gl. (1.141) proportional zur Strahlungsleistung )e. Die Empfindlichkeit (Responsivity) einer Fotodiode (Abb. 1.70) ist definiert als
I ph
)e
e K (O ) Eph
e K (O ) O. hc0
(1.142)
Die Strom-Spannungs-Kennlinie der Fotodiode (Abb. 1.71) ergibt sich aus der Kennlinie nach Shockley
I
ª § eU I S «exp¨¨ ¬ © kT
· º ¸¸ 1» ¹ ¼
für eine normale Diode, indem der Fotostrom nach Gl. (1.141) subtrahiert wird:
I
ª § eU I S «exp¨¨ ¬ © kT
· º ¸¸ 1» I ph . ¹ ¼
(1.143)
IS ist der Sperrstrom, der auch als Dunkelstrom Id bezeichnet wird. Im Kurzschlussbetrieb gilt U = 0 und es fließt der Kurzschlussstrom IK = –Iph. Im Leerlauf bei offenen Enden bzw. einem sehr hochohmigen Lastwiderstand ist I = 0 und an den Anschlüssen ist die Leerlaufspannung
UL
· k T § I ph ln¨¨ 1¸¸ e © IS ¹
(1.144)
Abb. 1.71. I(U)-Kennlinienfeld einer Fotodiode. Parameter ist die Bestrahlungsstärke
96
1 Grundlagen
abgreifbar. Im Gegensatz zum Strom ist die Leerlaufspannung nicht linear, sondern logarithmisch von der Strahlungsleistung abhängig. Je nach äußerer Beschaltung unterscheidet man verschiedene Betriebszustände:
x Elementbetrieb: Die Fotodiode wird ohne äußere Spannungsquelle direkt an einen Lastwiderstand RL (Verbraucher) angeschlossen. Die Diode arbeitet als Stromgenerator im vierten Quadranten des Kennlinienfeldes und wird als Fotoelement bezeichnet. Zu diesem Typ gehört auch die Solarzelle (Kap. 8). Der Arbeitspunkt A stellt sich ein als Schnittpunkt der I(U)-Kennlinie und der Widerstandsgeraden I = –U/RL. x Diodenbetrieb: Die Fotodiode wird mit einem Lastwiderstand RL in Reihe an eine Batterie angeschlossen, wobei die Batteriespannung UB < 0 in Sperrrichtung anliegt. Der Arbeitspunkt B ergibt sich als Schnittpunkt der I(U)-Kennlinie und der Widerstandsgeraden I = (UB – U)/RL. Fotodioden auf der Grundlage normaler pn-Übergänge sind relativ träge, weil die oben beschriebenen Diffusionsvorgänge sehr langsam sind. Sie lassen sich deshalb nur bis etwa 10 MHz für die Detektion modulierter Strahlung einsetzen. 1.6.3.2 pin-Fotodioden Die pin-Diode besteht nach Ab. 1.72 aus einer dicken i-Schicht (intrinsic, + + eigenleitend), die beidseitig von einem hoch dotierten p - bzw. n -Gebiet eingeschlossen ist. An die Diode wird eine Sperrspannung (einige 10 V) angelegt, die in der i-Schicht ein relativ homogenes elektrisches Feld aufbaut. Infolge ihrer Dicke werden praktisch alle Photonen innerhalb der iZone absorbiert. Die erzeugten Elektron-Loch-Paare werden durch das
Abb. 1.72. Aufbau einer pin-Fotodiode
1.6 Halbleiter-Detektoren
97
elektrische Feld getrennt und die Elektronen auf die n-Seite, die Löcher auf die p-Seite befördert. 6 Ab einer Feldstärke von etwa 2 10 V/m driften in allen Halbleitern die 5 Ladungsträger mit der Sättigungs-Driftgeschwindigkeit vS | 10 m/s. Der Driftvorgang durch das i-Gebiet benötigt damit nur eine sehr kurze Zeit. Ist w die Weite der i-Schicht, dann ist die Driftzeit
W Drift
w / vS .
(1.145)
Wenn modulierte Strahlung mit der Leistung
) (t ) ) 0 1 m sin(Z t ) auf die Diode fällt, ist der generierte Fotostrom ebenfalls moduliert gemäß
i (t )
I 0 1 mc sin(Z t M ) .
Für den Modulationsgrad (m d 1) gilt: mc m H (Z ) . Für die Modulations-Übertragungsfunktion kann abgeleitet werden:
H( f )
sin(S f W Drift ) . S f W Drift
(1.146)
Die elektrische 3-dB-Grenzfrequenz ist erreicht, wenn H ( f 3dB ) 1 / 2 ist. Damit wird
f 3dB
0,443
W Drift
.
(1.147)
Beispiel: Wie groß ist die Grenzfrequenz einer pin-Fotodiode aus Silicium mit einer 20 Pm dicken i-Schicht?
Lösung: Die Driftzeit ist nach Gl. (1.145) WDrift = 200 ps. Nach Gl. (1.147) ist dann die Grenzfrequenz f3dB = 2,2 GHz. Die benötigte Sperrspannung, um eine Feldstärke von E = 2 106 V/m zu erzeugen, ist UR = –Ew = –40 V. Ƒ
Rauschen von pin-Fotodioden Der Strom einer Fotodiode ist immer mehr oder weniger verrauscht (Abb. 1.73). Der eigentliche Rauschstrom in(t) (noise current) ergibt sich
98
1 Grundlagen
aus dem momentanen Strom i(t) durch Subtraktion des zeitlichen Mittelwerts I : in (t ) i (t ) I .
Abb. 1.73. Rauschen von Fotodioden, a) Diodenstrom, b) Rauschstrom, c) Rauschstromquadrat
Die mit dem Rauschstrom verknüpfte Verlustleistung ist proportional zu
in2 (t ) (Abb. 1.73 c). Der zeitliche Mittelwert ist in2 (t ) . Die wichtigsten Rauschquellen sind: x Schrotrauschen: Die erzeugten Ladungsträger überqueren die Sperrschicht statistisch regellos (wie die Schrotkugeln einer Schrotflinte). Nach Schottky ist das mittlere Rauschstromquadrat proportional zum mittleren Strom und zur Bandbreite B der Messanordnung: 2 ish
2e I B .
Beiträge zum Strom liefern der mittlere Fotostrom I ph , der Hintergrundstrom Ib, verursacht durch die Hintergrundstrahlung (background radiation) sowie der Dunkelstrom Id der Diode: I
I ph I b I d .
1.6 Halbleiter-Detektoren
99
x Thermisches Rauschen: In jedem Widerstand (hier der Lastwiderstand) kommt es infolge der Brown’schen Bewegung der Elektronen zu Rauschsignalen, deren mittleres Rauschstromquadrat gegeben ist durch 4k T B. R
2 itherm
Die Qualität eines detektierten Signals hängt ab vom Verhältnis der effektiven Signalleistung Psig zur effektiven Rauschleistung Pn, dem so genannten Signal-Rausch-Verhältnis
S N
Psig
2 isig
Pn
in2
,
(1.148)
das häufig auch als Pegelmaß in dB angegeben wird:
SNR 10 lg
S dB . N
(1.149)
Abb. 1.74. I())-Charakteristik einer Fotodiode
Fällt sinusförmig modulierte Strahlung der Leistung
) (t ) ) 0 )ˆ sin(Z t ) ) 0 1 m sin(Z t ) auf eine Fotodiode, dann erzeugt diese nach Abb. 1.74 einen modulierten Fotostrom
iph (t )
I ph,0 Iˆph sin(Z t M ) mit Iˆph
)ˆ und I ph,0
) 0 .
100
1 Grundlagen
Der Signalstrom ist isig (t )
2 Iˆph sin(Z t M ) , mit isig
Das Signal-Rausch-Verhältnis
S N
S N
1 ˆ2 I ph 2
1 ()ˆ ) 2 . 2
2 isig 2 2 ish itherm
wird damit
()ˆ ) 2 1 . ª § )ˆ º 8kT B · 4e « ¨¨ ) b ¸¸ I d » «¬ © m »¼ RL ¹
(1.150)
Ein optisches Signal ist nachweisbar, wenn die Signalleistung so groß ist wie die Rauschleistung, d.h. wenn gilt S/N = 1. Eine wichtige Kenngröße zur Klassifizierung von Fotodioden ist der NEP-Wert (Noise Equivalent Power). Diese rauschäqivalente Leistung ist der Effektivwert der kleinsten nachweisbaren optischen Wechselleistung bei einem Modulationsgrad von m = 100%:
NEP
1 ˆ ) min ( S / N 1, m 1) . 2
(1.151)
Häufig ist der NEP-Wert proportional zur Wurzel aus der Bandbreite. Von den Herstellern wird deshalb in Katalogen meist der Wert NEP B mit der Maßeinheit W Hz angegeben. Eine weitere Größe zur Charakterisierung von Fotodioden ist die Detektivität D = 1/NEP (detectivity, Nachweisvermögen). Dioden verschiedener Größe lassen sich vergleichen, wenn die Detektivität auf die Wurzel aus der Fläche A bezogen wird. Dies führt zur bezogenen Detektivität
D
A B . NEP
(1.152)
Beispiel: Sinusförmig modulierte Strahlung der Wellenlänge O = 1,3 Pm fällt auf eine pinFotodiode der Empfindlichkeit = 0,88 A/W. Mit der Strahlung werden analoge TV-Signale übertragen, für die ein Signal-Rausch-Abstand von SNR = 45 dB gefordert wird. Die Bandbreite ist B = 5 MHz. Die Sperrschichtkapazität der Diode ist Cj = 1 pF. Mit welcher Amplitude muss die Strahlungsleistung moduliert sein? Wie groß ist die rauschäquivalente Leistung der Diode? Hinweis: In pin-DiodenEmpfängern dominiert mit Abstand das thermische Rauschen.
1.6 Halbleiter-Detektoren
101
Lösung: Falls keine Bandpassfilter verwendet werden, begrenzt die RLCj-Zeitkonstante die Bandbreite. Damit ist ein Lastwiderstand erforderlich von RL = (2SCjB)1 = 31,8 k:. Das verlangte Signal-Rausch-Verhältnis ist S/N = 104,5 = 3,16 104. Wenn nur thermisches Rauschen betrachtet wird, reduziert sich Gl. (1.150) auf S N
()ˆ ) 2 RL 1 . 8kT B
Die erforderliche Leistungsamplitude ergibt sich hieraus zu
)ˆ
1
S 8kT B N RL
4,61 10 7 W .
Die kleinste nachweisbare Leistung ist )ˆ min
1 8kT B RL
2,59 10 9 W . Nach
Gl. (1.151) wird die rauschäquivalente Leistung NEP = 1,83 10-9 W bzw. NEP / B
8,2 10 13 W Hz -1/2 .
Ƒ
1.6.3.3 Lawinen-Fotodioden, APD Bei der Lawinen-Fotodiode oder kurz APD (Avalanche Photo Diode) werden durch Photonen frei gesetzte Ladungsträger lawinenartig vermehrt, wenn die Diode mit hoher Sperrspannung betrieben wird. Beim typischen
Abb. 1.75. APD, a) Aufbau und schematischer Multiplikationsprozess, b) Feldverlauf. Die p-Zone ist in Wirklichkeit viel dünner als die S-Zone (nahezu intrinsisches p-Gebiet)
102
1 Grundlagen
Aufbau nach Abb. 1.75 werden die Elektronen so stark beschleunigt, dass sie, wenn ihre kinetische Energie größer wird als die Energielücke, durch Stoßionisation weitere Elektron-Loch-Paare bilden können. Der primäre Photostrom Iph,prim = ()e/Eph)eK(O) nach Gl. (1.141) wird verstärkt um einen Multiplikationsfaktor M zu
I ph
M I ph, prim .
(1.153)
In der schematischen Skizze von Abb. 1.75 a) tragen nur die Elektronen zur Multiplikation bei. Tatsächlich können aber auch die Löcher durch Stoßionisation neue Elektron-Loch-Paare bilden. Wenn beide Ladungsträgertypen zur Multiplikation beitragen, wird zwar der Multiplikationsfaktor sehr groß, es dauert aber sehr lange, bis der Multiplikationsvorgang zum Abschluss kommt. Solche APDs sind daher nicht schnell modulierbar und liefern stark verrauschte Signale. Die Ionisationskoeffizienten Dn und Dp beschreiben die Zahl der Ionisationsakte, die ein Elektron bzw. Loch pro Längeneinheit ausführt. Die Verhältnisse k
Dp für D n ! D p bzw. k Dn
Dn für D p ! D n Dp
nehmen praktisch Werte an von 0,1 < k < 1. Gut kontrollierbare Verhältnisse liegen dann vor, wenn k klein ist und die Ladungsträgersorte mit dem größeren Ionisationskoeffizienten in die Multiplikationszone injiziert wird. In Abb. 1.75 a) sind dies wie bei Silicium die Elektronen (kSi | 0,1). Das Modulationsverhalten der APDs ist sehr komplex. Fällt sinusförmig modulierte Strahlung auf die APD, dann wird wie bei der pin-Diode (s. Abb. 74) ein sinusförmig modulierter Strom erzeugt. Für dessen Amplitude gilt Iˆ (Z ) Iˆ (Z 0) H (Z ) , ph
ph
wobei die Modulationsantwort gegeben ist durch
H (Z )
1 1 (Z W A ) 2
.
(1.154)
WA ist die Lawinenansprechzeit. Bei großen Multiplikationsfaktoren M gilt WA =WTr Mk. WTr = w/vS ist die Transitzeit zum Durchqueren der Hochfeldzone. Definiert man die elektrische 3-dB-Bandbreite wieder durch die Abnahme von H auf 1 / 2 , dann ergibt sich B
f 3dB
1
1
2S W A
2S W Tr M k
.
1.6 Halbleiter-Detektoren
103
Es existiert demnach ein Verstärkungs-Bandbreite-Produkt M B
1 2S W Tr k
const .
(1.155)
Typische MB-Produkte sind 150 GHz bis 300 GHz bei Si, 20 GHz bis 30 GHz bei Ge und 30 GHz bis 80 GHz bei InGaAs/InP. Beispiel: Eine InGaAs-APD hat ein Verstärkungs-Bandbreite-Produkt von MB = 60 GHz. Mit welcher Bandbreite können Signale nachgewiesen werden bei einem Multiplikationsfaktor von M = 30?
Lösung: Die Bandbreite ist B = 60 GHz/30 = 2 GHz.
Ƒ
Rauschen in APDs Der Vorteil der APD, nämlich die eingebaute Verstärkung führt zu zusätzlichem Rauschen, denn der Verstärkungsfaktor M ist nicht konstant, sondern statistisch regellos schwankend. Das mittlere Rauschstromquadrat des Schrotrauschens wird 2 ish
2e I B M 2 .
Setzt man M als konstant an, dann ist das mittlere Verstärkungsquadrat schreibbar als
M2
M 2 F (M ) ,
wobei der Zusatzrauschfaktor F(M) gegeben ist durch
F (M )
M k (1 k )(2 1 / M ) .
Wie schon eingangs erwähnt wurde, ist das Zusatzrauschen gering, wenn k klein ist. Für praktische Anwendungen kann der Zusatzrauschfaktor angenähert werden durch F |Mx.
Typische Werte des Exponenten sind x = 0,2–0,5 für Si, 0,9–1,0 für Ge und 0,7–0,8 für InGaAs.
104
1 Grundlagen
Damit ergibt sich für das Signal-Rausch-Verhältnis einer APD (s. Gl. (1.150) für pin-Dioden) S N
1 ()ˆ ) 2 . B ª § )ˆ º x · 8kT 4e « ¨¨ ) b ¸¸ I d » M 2 m M RL «¬ © »¼ ¹
(1.156)
Obwohl die APD im Vergleich zur pin-Diode zusätzliches Rauschen zeigt, kann sie günstigere NEP-Werte liefern weil der thermische Rauschbeitrag des Lastwiderstandes heruntergesetzt wird. Beispiel: Wie groß ist die rauschäquivalente Leistung einer APD mit folgenden Daten: = 0,88 A/W, RL = 1 k:, x = 0,75, B = 100 MHz, m = 100%? Hintergrundrauschen und Dunkelstromrauschen werden vernachlässigt.
Lösung: Aus Gl. (1.156) folgt für S/N = 1 die minimale Leistungsamplitude durch Lösen der quadratischen Gleichung 2 ˆ 2 8k T ) 4e M x)ˆ 2 B M RL
)ˆ min ( M
59)
2,13 nW, NEP 1,51 nW, NEP / B
0. 1,51 10 13 W/ Hz .
Ƒ
1.7 Literatur Bauer H (1991) Lasertechnik. Vogel, Würzburg Bludau W (1995) Halbleiter-Optoelektronik. Hanser, München, Wien Ditteon R (1998) Modern Geometrical Optics. John Wiley & Sons, New York Eichler J, Eichler H J (2002) Laser. Springer, Berlin, Heidelberg, New York Glaser W (1997) Photonik für Ingenieure. Verlag Technik GmbH, Berlin Hering E, Bressler K, Gutekunst J (1998) Elektronik für Ingenieure. Springer, Berlin, Heidelberg, New York Hering E, Martin R, Stohrer M (2004) Physik für Ingenieure. Springer, Berlin, Heidelberg, New York Pedrotti F, Pedrotti L, Bausch W, Schmidt H (2002) Optik für Ingenieure. Springer, Berlin, Heidelberg, New York Reider G A (1997) Photonik. Springer, Wien, New York
2 Fertigung optischer Komponenten und Systeme
2.1 Übersicht Dieser Abschnitt befasst sich mit der Herstellung von optischen Komponenten sowie der dazugehörigen Messtechnik. Dabei werden sowohl klassische optische Herstelltechniken, wie sie seit Jahrzehnten in der optischen Industrie verwendet werden, als auch moderne Herstellverfahren vorgestellt (z.B. Kunststofftechnologien und Lithografieverfahren). Ergänzend zu den Formgebungsverfahren werden Beschichtungsverfahren behandelt. Tabelle 2.1 zeigt die optischen Komponenten, ihre Einsatzbeispiele und Herstelltechnologien. Die folgenden Ausführungen gliedern sich entsprechend den Herstelltechnologien (Abb. 2.1).
Abb. 2.1. Übersicht über die Herstelltechnologien für optische Komponenten
Beleuchtung Brille Objektiv (Foto oder Projektor) Scheinwerfer Mikroskop CD, DVD Ausleseoptik
Klassische Bearbeitung (Schleifen und Polieren), Abformtechnologien, Strukturierung
Einsatzbeispiele
Herstelltechnologie
Strahlformung
Linse Abbildung
Komponente Funktion Prinzip
Bandpass für Telekommunikation Schutzwirkung, z. B. Brille
Teleskop Laser
Klassische BeschichtungsBearbeitung, Struk- technologien turierung, Beschichtung
Filter Wellenlängentrennung
Spiegel Reflexion
Tabelle 2.1. Funktion, Einsatz optischer Komponenten und die dazu verwendeten Herstelltechnologien
106 2 Fertigung optischer Komponenten und Systeme
2.2 Klassische Bearbeitung
107
2.2 Klassische Bearbeitung 2.2.1 Übersicht Trotz einer Vielzahl von neuen technologischen Möglichkeiten spielt die klassische Bearbeitung bei der Herstellung von optischen Komponenten mit Stückzahlen von unter 10.000 und bei der Herstellung von Prototypen oder Abformkörpern immer noch die entscheidende Rolle. Unter klassischer Bearbeitung versteht man die in Abb. 2.2 dargestellten Fertigungsprozesse.
Abb. 2.2. Prozesskette zur Herstellung von Optikkomponenten vom Design bis zur Montage
Die klassischen Bearbeitungsschritte hierbei sind Formen, Glätten und Korrektur. Tabelle 2.2 zeigt das Prinzip der einzelnen Bearbeitungsschritte. Tabelle 2.2. Prinzip der klassischen Bearbeitungsschritte Formen
Glätten
Korrektur
Ziel des Schrittes
Erzeugung Komponentenform
Materialabtrag
mehrere Millimeter 1 µm bis 100 µm Sägen, Trennen, Diamantdrehen
Beseitigung Tiefenschäden Verkleinern Rauhigkeit mehrere Mikrometer 1 µm bis 10 µm Feinstschleifen Polieren
Erreichen Formgenauigkeit über lokal unterschiedlichen Abtrag mehrere Nanometer 1 nm Computergesteuerte Politur, magnetorheologisches Polieren
Prinzip
Formgenauigkeit Einzeltechnologien
108
2 Fertigung optischer Komponenten und Systeme
2.2.2 Formen (Trennen, Schleifen, Diamantdrehen) Der Prozessschritt Formen dient dazu, aus der angelieferten Rohscheibe aus Glas (oder anderem optischen Material) die Funktionsform der optischen Komponente, beispielsweise der sphärischen (kugelförmigen) Linse herzustellen. Hierbei wird zwischen einer Grobbearbeitung (z.B. Vorschleifen) und einer Feinbearbeitung (z.B. Feinschleifen oder Diamantdrehen) unterschieden. In der Grobbearbeitung wird aus der meist flachen Scheibe durch Abtrag vom mehreren mm Material die grobe Form mit einer Abweichung von typisch 0,01 mm bis 0,1 mm und einem Aufmaß von 0,01 mm bis 1 mm generiert. Danach wird in einem zweiten Schritt die gewünschte Endform und die gewünschte Oberflächenrauigkeit eingestellt. Die Endform weicht nach diesem Schritt noch 0,0001 mm bis 0,01 mm vom Soll ab und ist damit bereits oft im spezifizierten Bereich. Die Rauigkeit liegt nach dem letzten Schritt zwischen 1 nm rms und 10 µm rms (rms root mean square, quadratisch gemittelte Rauigkeit). Dabei liefert der Prozess Diamantdrehen in der Regel die formgenaueren und die weniger rauen Oberflächen. Für bestimmte Wellenbereiche, beispielsweise in der Infrarotoptik, sind die durch Diamantdrehen erreichten Werte bereits als Endspezifikation ausreichend, so dass kein Polierschritt nachfolgen muss. In der Tabelle 2.3 sind die typischen Ergebnisse in Bezug auf Form und Rauigkeit aufgeführt. Schleifen als Prozess kann bei allen Materialien eingesetzt werden. Für Diamantdrehen ist die Voraussetzung, dass sich das zu bearbeitende Material bei Abträgen im 10 µm-Bereich duktil (plastisch) verhält. So sind beispielsweise Kunststoffe, Metalle und bestimmte Kristalle für Diamantdrehen geeignet, klassische Glassorten dagegen nicht. Tabelle 2.3. Klassische Vorbearbeitungsschritte und die erzielbaren Formgenauigkeiten und Oberflächenrauigkeiten Materialien
Vorschleifen alle
Kontakt auf Werkstück Flächen- oder Punktkontakt Abtrag pro Durchlauf 100 bis 2.000 (Spangröße) µm Formgenauigkeit µm 10 bis 100 10 bis 100 Oberflächenrauigkeit µm rms root mean square (quadratisch gemittelt)
Feinschleifen alle
Diamantdrehen Duktile, d.h. plastisch verformbare Punktkontakt
Flächen- oder Punktkontakt 2 bis 100
1 bis 20
1 bis 10 0,1 bis 10
0,1 bis 10 0,01 bis 0,1
2.2 Klassische Bearbeitung
109
Zur Formerzeugung bei den Optikkomponenten werden heute nahezu überall CNC (Computer Numerical Controlled)- Maschinen eingesetzt. Sie erzeugen die Form durch Zerspanung entlang einer vorgeben Bahnkurve.
Abb. 2.3. Vorbearbeitung eines Brillenglases auf einer CNC-Schleifmaschine (Werkfoto: Schneider Optikmaschinen)
Je nach Flächenform erfolgt bei Sphären und Planflächen der Abtrag beim Schleifen über Linien- oder Flächenkontakt, bei Asphären (Nichtkugelflächen) und Freiformflächen über Punktkontakt. Bei der Bearbeitung von nichtrotationssymmetrischen Formen wird zusätzlich zu dem rotationssymmetrischen Drehen (in Abb. 2.5. senkrecht zur Bildebene) azimuthabhängige Hübe in Achsrichtung (in Abb. 2.5 in der Bildebene horizontal) mit dem Diamanten gefahren, um die nichtrotationssymmetrischen Abweichungen einzubringen. In Abb. 2.4 ist eine Topfschleifmaschine gezeigt, die zum Schleifen von Sphären und Asphären eingesetzt wird.
Abb. 2.4. CNC-Schleifmaschine für Sphären und Asphären (Nichtkugelflächen) bis 200 mm Durchmesser mit einer Formabweichung kleiner 1 µm. (Werkfoto: Schneider Optikmaschinen)
110
2 Fertigung optischer Komponenten und Systeme
Abb. 2.5. Hochgeschwindigkeitsdiamantdrehmaschine für Brillengläser. Auf der rechten Seite sieht man links das aufgespannte Brillenglas und rechts den Diamanten auf seinem Halter (Werkfoto: Schneider Optikmaschinen)
Neben der direkten Formgebung zur Herstellung von optischen Elementen werden die oben genannten Verfahren auch zur Fabrikation von Masterformen zum Abformen von Optik beispielsweise für Web-Kameras, CD-, DVD-Ausleseoptik und Scheinwerferlinsen eingesetzt. Messtechnik Die gebräuchlichste Messtechnik zur Vermessung der Formgebung ist die taktile Messtechnik. Dabei wird mit einem Taster die zu vermessende Oberfläche entweder in Einzelpunkten oder scannend als Schnitt oder komplette Oberfläche abgetastet. Die Größe der Tasterspitze ist dabei der Größe der zu vermessenden Kontur angepasst. Die erreichbaren Genauigkeiten liegen je nach Messtechnik im Bereich von 10 nm bis 10 µm. In Abb. 2.6 ist die Vermessung einer Infrarotoptik in Einbaulage zu sehen.
Abb. 2.6. Taktile Vermessung eines Optikelements in Einbaulage. Im gezeigten Beispiel ermöglicht der montierte Sterntaster die gleichzeitige Vermessung von Optikform, Optiklage und Gehäuse
2.2 Klassische Bearbeitung
111
2.2.3 Glätten Der Prozessschritt Glätten hat die Aufgabe, die Rauigkeit der Oberfläche aus dem formgebenden Schritt so zu veringern, dass die geforderte Streulichtspezifikation erreicht und die durch Sprödbruch entstandenen Tiefenschädigung (Risse) beseitigt wird. Typische Abtragsraten beim Polieren liegen zwischen 5 µm und 50 µm. Der Polierprozess ist im Gegensatz zum Schleifen und Diamantdrehen ein Prozess mit relativem Abtrag. Während bei den beiden formgebenden Prozessen eine Zustellung an der Maschine von 50 µm auch einen Abtrag von 50 µm bewirkt, ist beim Polierprozess die Abtragsarbeit nur über die Prestongleichung zu berechnen: W W: p: v: t:
µ*A*p*v*t
(2.1)
Abtragsarbeit µ: Reibungskoeffizient Druck auf Fläche A: Auflagefläche Werkzeug Relativgeschwindigkeit Werkstück zu Werkzeug Verweilzeit
oder für die Abtragsrate dz/dt: dz/dt dz/dt: Cp: A: ds/dt:
Cp * L/A * ds/dt
(2.2)
Höhenänderung über Zeit oder Abtragsrate Prestonkoeffizient L : Gesamte Normalkraft in Newton Auflagefläche Werkzeug Relativgeschwindigkeit Werkstück zu Werkzeug
Beispiel: Bestimmung Polierzeit für 10 µm Abtrag auf einer Linse mit A 100 cm2, L 100 N und ds/dt = 10 cm/s (Cp 10-7 cm2/N). Nach der Prestongleichung ergibt sich eine Polierzeit von 1.000 s | 16,7 min. Für die unten aufgeführten Polierverfahren liegt der Prestonkoeffizient typischerweise um einen Faktor 10 bis 100 niedriger, d.h. bei 10-8 cm2/N bis 10-9 cm2/N.
Man unterscheidet beim Polieren grundsätzlich zwei verschiedene Prozesse: Das Ganzflächenpolieren und die lokale Politur. Die Unterschiede sind in Tabelle 2.4 zusammengefasst. Die Ganzflächenpolitur ist das bekannteste Verfahren der klassischen Optikbearbeitung, das seit Jahrhunderten nach dem gleichen Prinzip vor allem für Plan- und Kugelflächen durchgeführt wird. Abbildung 2.7 zeigt exemplarisch das Polieren eines elliptischen Leichtgewichtspiegels auf einer Planpoliermaschine. Der Spiegel liegt mit der optischen Seite nach
112
2 Fertigung optischer Komponenten und Systeme
Tabelle 2.4. Vergleich der Prozessvarianten Ganzflächen- und lokales Polieren für verschiedene Parameter Ganzflächenpolieren
Lokales Polieren
Prinzip
Abtrag (~ Fläche) Hoch Steuerung Prozess Passiv (Teil liegt auf Werkzeug oder ungekehrt) oder CNC Geeignet für Planfläche, Sphäre, Torus, Geometrien Asphären (Nicht Kugelflächen nur bedingt) Formkorrektur Nur großflächig über Parameter möglich Relativgeschwindigkeit Glättwirkung Gut, statistische Verteilung der Geschwindigkeiten
Gering CNC Alle Geometrien
Lokale Korrektur möglich Mittel. Gefahr von Bahnspuren und erhöhter Rauigkeit
unten auf einer großen Scheibe mit Polierbelag, die sich dreht. Durch die Drehung der Scheibe und die Eigendrehung des Spiegels wird die für den Abtrag notwendige Relativgeschwindigkeit ds/dt erzeugt und durch das Eigengewicht der Flächendruck L/A. Einsetzte Polierbeläge sind: x Peche (Natur- oder Kunstpeche), die aus Naturharzen oder Raffinerieprodukten gewonnen werden; x Polyurethan-Schäume; x Filze und Tücher aus verschiedenen Kunststofffasern und mit unterschiedlichem Aufbau. Eingesetzte Poliermittel sind: x Suspensionen aus CeO2 oder Al2O3; x Suspensionen aus diversen anderen Seltenen Erden und Si, zum Teil noch chemisch veredelt und im pH-Wert angepasst; x Diamantlösung für spezielle Anwendungen. Die genannten Polierbeläge und Poliermittel kommen bei allen zu polierenden Komponenten zum Einsatz, sei es die Mikrolinse oder der 8 mSpiegel für die Europäische Sternwarte. Mit dem Einzug der computergesteuerten Politur (CCP Computer Controlled Polishing) wurde der gesamte Optikbearbeitungsprozess
2.2 Klassische Bearbeitung
113
wesentlich deterministischer, beherrschbarer und damit auch wirtschaftlicher. Jegliche Art von Hochleistungsoptik, sei es nun im High-End-Fotografiebereich, in der digitalen Projektion, in der Lithografieoptik oder auch in der Astrooptik ist ohne computergesteuerte Polierverfahren nicht denkbar. Die lokale Politur verfolgt zwei Ziele: 1. Sie glättet wie die Ganzflächenpolitur die Oberfläche und verbessert die Oberflächenrauigkeit aus dem Formgebungsschritt auf Werte bis zu unter 1nm rms. 2. Durch die Möglichkeit, lokal unterschiedliche Abträge zu erzielen, kann dieses Verfahren auch zur Formkorrektur eingesetzt werden. Die Formgenauigkeiten von 0,1 µm bis 1 µm können damit auf Werte bis zu unter 10 nm gebracht werden. Im Folgenden werden die verschiedenen Möglichkeiten der lokalen Politur dargestellt. In dieser Technologie der klassischen Optikbearbeitung wurden in den letzten Jahren die größten Fortschritte erzielt. CCP (Computergesteuertes Polieren) Unter CCP oder auch CCOS (Computer Controlled Optical Surfacing) versteht man die Bearbeitung der Glasoberfläche mit einem kleinen Werkzeug aus Kunststoff unterschiedlicher Beschaffenheit. Dazu wird aus einer Düse Poliermittel auf die Glasoberfläche aufgebracht (Abb 2.7). Poliermittel und Poliermittelträger sind die gleichen wie bei der Ganzflächenpolitur. Die nach der Prestongleichung notwendige Relativgeschwindigkeit ds/dt wird über eine Drehbewegung des Polierwerkzeuges und eventuell einer zusätzliche Bewegung des Werkstücks realisiert.
Abb. 2.7. Links: Bild einer Planpoliermaschine als Beispiel für eine Ganzflächenpolitur, in der die Komponenten passiv bearbeitet werden. Rechts: Bild einer lokalen CNC-Politur, bei der ein Werkzeug mit kleinem Durchmesser robotergesteuert über die Fläche geführt wird (Werkfoto: Carl Zeiss)
114
2 Fertigung optischer Komponenten und Systeme
Von den weiteren Parametern in der Prestongleichung, Druck p oder Verweilzeit t, wird ein Parameter konstant gehalten und der andere über einen mathematischen Algorithmus berechnet und variiert. Auf der Basis dieser Berechnung wird das Werkzeug CNC gesteuert über die zu korrigierende Oberfläche geführt. Die genaue Prozessführung, die Wahl der Bewegung, des Poliermittels und des Polierträgers ist bei jedem Optikhersteller unterschiedlich und zählt zum Kern-Know-How der Bearbeitung. Die erzielbaren Abträge liegen bei mehreren 10 µm. Formkorrekturen mit Restabweichungen von kleiner 10 nm von der Sollfläche werden erreicht. MRF (Magneto Rheological Finishing) MRF (Magneto rheologisches Polieren) ist eine Abwandlung des CCPVerfahrens, bei dem das Polierwerkzeug durch ein Polieren in einer magnetischen Flüssigkeit ersetzt wird (Abb. 2.8).
Abb. 2.8. Korrektur einer Linse auf der MRF-Maschine (Werkfoto: Schneider Optikmaschinen)
Durch das Polieren in der magnetischen Flüssigkeit, der Poliermittel zur Abtragserzeugung beigesetzt sind, ergeben sich folgende Vorteile: x Keine mechanische Abnutzung des Werkzeugs und damit konstante Bedingungen über einen langen Zeitraum. x Reproduzierbare Polierabträge über exakt und reproduzierbar einstellbare Parameter (z.B. anliegendes Magnetfeld und Viskosität der Flüssigkeit). Damit ist das MRF-Verfahren eine Alternative zu den CCP-Verfahren im Bereich der lokalen Polierverfahren für die Endkorrektur hochgenauer Flächen: Die erzielten Abträge liegen bei mehreren 10 µm; die ereichten Endgenauigkeiten bei weniger als 10 nm Abweichung von der Sollfläche.
2.2 Klassische Bearbeitung
115
Lokale Polierverfahren Bei den aufgeführten Verfahren, die noch in der Entwicklung sind, kann über die Verweilzeit gezielt ein lokaler Abtrag eingestellt werden. Damit kann die Oberflächenform bis in den Nanometerbereich fein korrigiert werden. Fluid Jet Polishing: Bearbeitung der Oberfläche mit einem Flüssigkeitsstrahl aus Wasser und Poliermittel. Der Strahl wird durch eine Düse geformt.
Ion Beam Figuring: Bearbeitung der Oberfläche mit einem Ionenstrahl, einer Art Sandstrahlen auf atomarer Basis. Die Ionenstrahlbearbeitung gibt es im Prototypenstadium auch in dem aus der Halbleiterindustrie bekannten chemisch unterstützten Ionenätzen (PACE: Plasma Assisited Chemical Etching oder RAPT: Reactive Assisted Plasma Technology). 2.2.4 Messtechnik Während bei den formgebenden Verfahren Schleifen und Diamantdrehen die taktile Messtechnik dominiert, werden bei polierten Oberflächen optische Messverfahren eingesetzt, insbesondere die interferometrische Messtechnik. Bei diesem Verfahren wird eine von einer Referenzfläche (Fizeaufläche in Abb. 2.9) reflektierte Lichtwelle mit einer von der Testkomponente (Testlinse) reflektierten Lichtwelle verglichen. Eine Abweichung der Testkomponente von der vorgegeben Sollform führt zu einer Verbiegung der Interferenzstreifen. Die Interferometrie ist eine hochgenaue optische Oberflächenmesstechnik, die es erlaubt, Abweichungen von der Sollform von 1/10 bis 1/1.000 der Prüfwellenlänge (z.B. 633 nm), d.h. mit Nanometergenauigkeit, zu vermessen. Limitierend für die Genauigkeit sind Temperatur- und Luftdruckschwankungen im optischen Weg zwischen Fizeauobjektiv und Testlinse, die über Brechzahlunterschiede zu unterschiedlichen optischen Wegen der Strahlen führen. Mit Hilfe moderner Elektronik und Bildverarbeitungssoftware ist es möglich, über eine Vielzahl von Einzelmessungen zu mitteln, um den Effekt statistischer Schwankungen zu verringern.
116
2 Fertigung optischer Komponenten und Systeme
Abb. 2.9. Aufbau eines Fizeau-Interferometers zur Prüfung von optischen Komponenten (Werkfoto: Carl Zeiss)
Anwendung Serie: Fotoobjektive, Mikroskope und medizinische Geräte, Brille, Projektoren (digital und analog), Lithografie-Objektive, Teleskopoptik, Spiegel jeglicher Art. Prototypen: (oder als Master zum Abformen) Objektive für Webkameras, CD- DVD- Spieler-Optik, Scheinwerferlinsen.
2.3 Abformen 2.3.1 Übersicht Die Abformtechniken sind im Bereich der Gebrauchsoptik die dominierende Technologie. Deshalb sind abgeformte Linsen in fast jedem optischen Gerät eingebaut, sei es in einem CD-Laufwerk, in einer digitalen oder analogen Kamera oder im Autoscheinwerfer. Die Hauptunterschiede zur klassischen Bearbeitung sind in Tabelle 2.5 zusammengefasst. Abformtechniken werden ab einer Stückzahl von mehr als 10.000, meist aber im Millionenstückbereich eingesetzt. Erst ab großen Stückzahlen lohnt sich der aufwändige Prozess der Herstellung eines Abformkörpers (Master). Grundsätzlich unterscheidet man zwischen Kunststoff abformen und Glas abformen. In Tabelle 2.6 sind die beiden Technologien gegenübergestellt.
2.3 Abformen
117
Tabelle 2.5. Hauptunterschiede zwischen den Abformtechniken und der klassischen Bearbeitung Einsatzbereich
Typische Stückzahlen pro Komponente Werkstoff
Abformtechniken Gebrauchsoptik, beispielsweise in CD-Laufwerken, Digitalkameras, Autoscheinwerfern > 106
Klassische Bearbeitung Alle Arten von optischen Präzisionsgeräten, hochwertige Kameras und Projektoren, Masterformen < 104
Kunststoff und Glas
Glas
Tabelle 2.6. Qualitativer Vergleich zwischen Glas- und Kunststoffabformtechniken Glas abformen Blankpressen
Technologie
Typische Durchmesser Typische Formabweichung der Oberfläche Homogenität Brechungsindex Ausgangsmaterial Kostenvorteil gegenüber klassischer Bearbeitung
< 30 mm Einige µm Gut Mittel
Kunststoff abformen Spritzgiessen Spritzprägen Heißprägen Einige mm bis 100 m Einige µm Mittel – durch Prozess dominiert, Schlierenbildung Hoch
2.3.2 Glas abformen (Blankpressen) Beim Blankpressen wird ein erwärmter Glasrohling zwischen zwei Abformteilen (Master) unter hohem Druck zu einer Linse gepresst (Abb. 2.10). Nach
Abb. 2.10. Prinzip des Blankpressens
118
2 Fertigung optischer Komponenten und Systeme
dem Pressvorgang wird die Linse abgekühlt und kann dann direkt, d.h. ohne weiteren Bearbeitungsschritt, beschichtet und eingebaut werden. Die Oberfläche nach dem Blankpressen entspricht der einer bereits polierten Linse, sowohl von der Tiefenschädigung, als auch von der Oberflächenrauigkeit. Für die Präzisionsoptik muss der verwendete Glasrohling genau portioniert sein. Für nicht so hohe Anforderungen können Größe und Gewicht schwanken. Der Rohling wird bis oberhalb TG (Glaspunkt: Temperatur bei der das Glas weich, d.h. plastisch verformbar wird) erwärmt, unter hohem Druck umgeformt und in seine endgültige Form gepresst. Für die Präzisionsoptik wird die gepresste Linse dann in der Pressform abgekühlt (für optisch nicht hochwertige außerhalb der Pressform). Ein externes Abkühlen ermöglicht höhere Taktraten und damit niedrige Produktionskosten. Eine Variante davon ist das bei Docter Optics verwendete Pressen aus der Glasstange, bei dem der Pressling auf die eine Seite einer Glasstange aufgeprägt wird, dieser dann abgeschnitten und die zweite Seite nachgearbeitet wird. Die Masterformen für das Blankpressen werden auf Grund der notwendigen benötigten Drücke aus sehr steifen Materialien wie beispielsweise Siliziumkarbit hergestellt. Dies geschieht mit den klassischen Optikbearbeitungstechniken Schleifen und Polieren. Da die meisten Glasmaterialien beim Abkühlen schrumpfen, muss dies beim Herstellen der Masterform berücksichtigt werden. In der Praxis ist dies ein iterativer Prozess, d.h. auf Basis der gemessenen Abformteile wird die Masterform mehrmals nachgearbeitet. Dieser aufwändige Iterationsprozess sowie die notwendigen Produktionsinvestitionen machen das Verfahren des Blankpressens erst ab großen Stückzahlen wirtschaftlich (in der 5 6 Regel 10 bis 10 Komponenten pro Typ). In Abb. 2.11 und Abb. 2.12 sind blankgepresste Linsen und ihre Anwendung zu sehen.
Abb. 2.11. Herstellverfahren für blankgepresste Optik. Von links nach rechts: 1. Erwärmen des Glases im Ofen. 2. Fertige Linse nach dem Öffnen des Umformwerkzeuges. 3. Abkühlen der Linsen außerhalb des Umformwerkzeuges (Werkfoto: Docter Optics)
2.3 Abformen
119
Abb. 2.12. Anwendungsbeispiele blankgepresster Optik in Autoscheinwerfern zur gezielten Strahlformung und Ausführungsbeispiele blankgepresster Linsen. Die Beispiele zeigen, dass sich beliebige Formen, im Beispiel Berandungen, herstellen lassen. (Werkfoto: Docter Optics)
2.3.3 Kunststoff abformen Linsenstückzahlen im Millionenbereich mit geringen Qualitätsanforderungen werden in Kunststoff abgeformt. Insbesondere in Japan wird diese Technologie in großem Umfang eingesetzt. Ähnlich wie beim Glas abformen wird der Kunststoff erwärmt und unter Druck in die gewünschte Form gepresst. Dabei gibt es im Wesentlichen drei Varianten, die in Abb. 2.13 schematisch dargestellt sind: Spritzguss: Beim Spritzgießen wird die Optikform unter Druck komplett ausgegossen und anschließend die Komponente aus der Form gelöst. Der Vorteil besteht in kurzen Zykluszeiten. Damit sind hohe Stückzahlen möglich. Kunststoffbrillengläser werden beispielsweise mit diesem Verfahren hergestellt. Spritzprägen: Beim Spritzprägen wird ein Kunststofftropfen in eine erweiterte Form einspritzt, die Optik aber unter dem Druck eines beweglichen Stempels auf der Masterform geprägt. Von Vorteil ist die deutlich kürzere Zykluszeit im Vergleich zu Heißprägen. Heißprägen: Beim Heißprägen wird eine vorhandene Kunststoffscheibe unter Druck und Hitze auf die Urform geprägt, wobei nur die Oberfläche verformt wird. Von Vorteil ist ein geringer Materialtransport in der Prägeform bei der Herstellung, damit geringere Spannungen und daraus folgend gute optische Eigenschaften (z.B. geringe Brechungsindexschwankungen). Limitierend für die Abbildungsqualität bei Kunststoffoptiken sind die durch den Abformprozess entstehenden Brechzahlschwankungen im Material. Diese Schlierenbildung tritt hier wesentlich stärker als bei Glasmaterialien auf und ist beim Abformungsprozess Heißprägen am besten zu verringern.
120
2 Fertigung optischer Komponenten und Systeme
Abb. 2.13. Prinzip der Abformungstechnologien für Kunstoffoptik, gezeigt an der Herstellung eines Gitters
Für die Kunststoffmasterformen kommt oft Metall zum Einsatz, welches zur besseren optischen Bearbeitung mit Nickel beschichtet ist. Die entsprechende Form kann dann mit Diamantdrehen sehr genau eingearbeitet werden. Je nach Anforderung wird die Masterform noch in einem Polierschritt geglättet. Korrekturen bei der Formanpassung sind bei den Metallmasterformen einfacher zu erreichen als bei den keramischen Masterformen für die Glasabformung. Anwendungsbeispiele für abgeformte Kunststofflinsen sind konventionelle und Digitalkameras, CD-Ausleseoptiken, Kameras für Handys, alle Arten von diffraktiven Elementen, beispielsweise Vorsatzoptiken für Laserpointer sowie Vorsatzoptiken für Detektoren. 2.3.4 Messtechnik Als Messtechnik für abgeformte Linsen wird oft die Streifenprojektion eingesetzt. Bei dieser Messtechnik projiziert ein Projektor ein Streifengitter auf eine zu vermessende Fläche. Dieses Muster wird unter einem anderen Winkel mit einer CCD-Kamera aufgenommen und per Programm in ein Oberflächenprofil umgewandelt (Abb. 2.14).
2.4 Strukturierung
121
Abb. 2.14. Prinzip Streifenprojektion zur Vermessung von abgeformten Linsen
Anwendung Serie: Scheinwerferlinsen, CD-, DVD-Spieler-Optik, Fotoobjektive, Mikroskope und medizinische Geräte, Brillen, Projektoren (digital und analog), CCD-Kameras, auch für Mobiltelefone.
2.4 Strukturierung 2.4.1 Diffraktive Optik Prinzip Die bisher behandelte klassische Bearbeitung und die Abformtechnologie werden überwiegend für optische Komponenten verwendet, die auf dem Prinzip der Lichtbrechung basieren. Damit verbunden ist eine gewisse räumliche Ausdehnung der Komponente (z.B. Linse) in Lichtrichtung. Durch den Trend zu immer flacheren optischen Komponenten (z.B. Kameras in Mobiltelefonen), eröffnet sich ein Markt für Komponenten, die auf dem Prinzip der diffraktiven Optik beruhen. Diffraktive Optik beruht auf dem Prinzip der Beugung. Vereinfacht gesagt wird Licht, welches durch ein Gitter tritt oder von einem Gitter reflektiert wird, in verschiedenen Ordnungen aufgespalten (Abb. 2.15). Der Weglängenunterschied zwischen Oberfläche und Vertiefungen wird zur Verstärkung oder zum Auslöschen des Lichtes ausgenutzt. Bildet man die so entstandenen Ordnungen auf einem Schirm ab, erhält man helle und dunkle Stellen.
122
2 Fertigung optischer Komponenten und Systeme
Abb. 2.15. Prinzip der diffraktiven Optik
Die Beugungseffekte werden bei der diffrakiven Optik durch besondere Form der Gitterlinien und durch spezielle Anordnung zur Strahlformung ausgenutzt. 2.4.2 Lithografie Abbildung 2.16 zeigt das Prinzip der lithografischen Herstellung. Eine auf einer Maske (oder Reticle) aufgebrachte Struktur wird mit Licht (und meist einer Optik) auf ein Substrat (beispielsweise Si-Wafer oder Quarzglasplatte) abgebildet. Dieses Substrat ist mit einem Fotolack beschichtet. Nach der Belichtung wird der Fotolack entwickelt und der nicht entwickelte Lack entfernt. Per Ätzvorgang, meist mit reaktiven Gasen, wird die Struktur auf den Si-Wafer übertragen. Danach wird der restliche Fotolack, der als Schutzschicht des Substrats wirkt, entfernt. Das Substrat ist also nur an den nicht mit Schutzlack bedeckten Stellen modifiziert worden. Im gezeigten Beispiel (Abb. 2.16) ist auf diese Weise ein Phasengitter als Beispiel für ein diffraktives Element entstanden.
Abb. 2.16. Prinzip der lithografischen Herstellung von diffraktiven Elementen
2.5 Beschichtung
123
2.4.3 Abformen Diffraktive Elemente lassen sich genauso wie geometrische Elemente (z.B. Linsen) mit den oben genannten Kunststoffabformtechniken herstellen. Dies ist besonders bei großen Stückzahlen die gängige Technologie. Die Masterform für die diffraktive Struktur kann dabei beispielsweise durch eine klassische Diamantbearbeitung erzeugt werden. 2.4.4 Messtechnik Als Messtechnik für diffraktive Elemente wird auf Laborebene die Interferometrie (Abb. 2.9) eingesetzt, die mit Hilfe vorgeschalteter Optik (z.B. einem Mikroskopobjektiv) auf die entsprechende Strukturgröße angepasst ist. Bei Strukturen im Mikrometerbereich wird die Rasterkraftmikroskopie (Atomic Force Microscope, AFM, Abb. 2.17) verwendet. Serienmessverfahren für diffraktive Elemente befinden sich noch in der Entwicklung.
Abb. 2.17. Prinzip der Rasterkraftmessung von diffraktiven Elementen
Anwendung Serie: Strahlformungselemente in Beleuchtungen aller Art, abbildende Elemente in Fotoobjektiven, medizinischen Geräten, Sehhilfen, CCD-Kameras.
2.5 Beschichtung 2.5.1 Prinzip Optische Schichten nutzen das Prinzip der optischen Interferenz. So hat beispielsweise eine einfache optische Antireflex-Schicht eine optische Dicke von O/4 (O: Wellenlänge des Lichtes in der Schicht), d.h. ein Lichtstrahl der an der Grenzfläche Glas-Schicht reflektiert wird, hat gegenüber
124
2 Fertigung optischer Komponenten und Systeme
einem Strahl der an der Oberfläche der optischen Schicht reflektiert wird, durch den doppelten Durchgang genau einen Weglängenunterschied von O/2. Das bedeutet, beide Strahlen löschen sich gegenseitig aus. So beträgt der Wegunterschied der Welle 1 am Punkt A und der Welle 2 am Punkt B (Abb. 2.18) genau O/2 (halbe Wellenlänge). Dadurch fällt Wellenberg auf Wellental. Die beiden Wellen löschen sich durch destruktive Interferenz aus.
Abb. 2.18. Destruktive Interferenz zweier Wellen an einer optischen Schicht
2.5.2 Herstellung optischer Komponenten In Abb. 2.19 sind optische Komponenten aufgeführt, die mit der Technologie der Beschichtung hergestellt werden. Dabei werden die selektive Transmission (Transmission eines bestimmten Wellenlängenbereichs des Lichtes) und die Reflexionseigenschaften ausgenutzt.
Abb. 2.19. Optische Komponenten, die mit der Technologie Beschichtung herstellt werden
Zur Veringerung des Lichtverlustes von etwa 4% beim Übergang LuftGlas, erhält jede optische Komponente, die in Transmission benutzt wird, eine Antireflexschicht (AR), die den Restreflex in der Regel auf unter ein Prozent reduziert. Um den Anforderungen unterschiedlicher Wellenlängen und unterschiedlicher Einfallswinkel Rechnung zu tragen, werden Mehrschichtsysteme
2.5 Beschichtung
125
Abb. 2.20. Prinzipieller Aufbau eines Schichtpaketes (dielektrische Schichten) aus einer hoch- und einer niederbrechenden Schicht
verwendet (Abb. 2.20). Schichtpakete sind Kombinationen einer hochbrechenden und einer niederbrechenden Einzelschicht, wobei hoch/ und niederbrechend immer relativ zum Brechungsindex des Substrats zu sehen ist. In einer Elektronenmikroskopieaufnahme in Abb. 2.21 sind die verschieden hoch- und niederbrechenden Einzelschichten deutlich zu sehen.
Abb. 2.21. Elektronenmikroskopieaufnahme eines Schichtpaketes auf einem Glassubstrat (Werkfoto: Carl Zeiss)
2.5.3 Bedampfen mit PVD-Verfahren Bei der Bedampfung mit dem PVD-Verfahren (PVD: Physical Vapor Depo-4 sition) wird in einer Vakuumkammer mit einem Druck von etwa 10 Pa ein Behälter (Schiffchen) mit dem zu bedampfenden Material befüllt und aufgeheizt. Mit steigender Temperatur verdampft ein Teil des Beschichtungsmaterials und schlägt sich auf den kälteren optischen Elementen, z.B. Linsen, nieder (Abb. 2.22). Zur Erreichung eines gleichmäßigen Schichtaufwachsens und einer homogenen Dickenverteilung werden die Komponenten um die Mittelachse der Anlage und zusätzlich um sich selbst gedreht.
126
2 Fertigung optischer Komponenten und Systeme
Abb. 2.22. Prinzip einer Anlage zur Bedampfung von optischen Komponenten im Vakuum
Wichtige Parameter zum Erzielen von guten Schichten sind a) das Vakuum in der Kammer bei der Beschichtung und b) die Reinheit der Kammer selber. Der erhitzte Verdampfungsbehälter erwärmt seinerseits über Wärmestrahlung die Kammerwände und führt dort zum Ausgasen bzw. Ablösen von adsorbierten Gasen. Diese Restgase werden in die porösen Schichten, wie sie durch Aufdampfen entstehen, eingebaut und führen zu einer Verschlechterung der optischen und mechanischen Eigenschaften. Um das Aufheizen der Kammer zu verringern, werden weiterentwickelte, sehr effiziente Heizverfahren, wie Beschuss mit Laser- oder Elektronenstrahl eingesetzt, wobei insbesondere die Elektronenstrahlmethode hohe Verdampfungstemperaturen und damit auch den Einsatz von Oxiden erlaubt. Anwendungen sind Linsen für verschiedene optische Geräte, Spiegel, Brillengläser und Filter. 2.5.4 Sputter-Technologie Auch die Sputter-Technologie (gehört ebenfalls zu PVD) ist eine viel genutzte Technologie, mit der optische Schichten erzeugt werden. Im Gegensatz zum Verdampfen, bei dem die Quelle praktisch eine Art Punktquelle ist, werden beim Sputtern großflächige Targets (Platten aus dem Beschichtungsmaterial, Durchmesser in etwa wie optische Teile) eingesetzt (Abb. 2.23). Der Abstand zwischen zu beschichtendem Substrat und Target
2.5 Beschichtung
127
Abb. 2.23. Prinzip einer Anlage zur Beschichtung von optischen Komponenten im Vakuum mittels Sputter-Technologie
ist sehr viel kleiner als bei der Bedampfung. Dies ermöglicht, dass reine Sputterbeschichtungsanlagen sehr viel kleiner gebaut werden können als Bedampfungsanlagen. Beim Sputtern wird mit einem Ionenstrahl (meist + Argon, Ar ) auf das Target geschossen. Die abgesputterten (herausgeschossenen) Teilchen scheiden sich auf dem zu beschichtenden Teil ab. Sputtern findet vor allen Verwendung bei Schichten aus schlecht verdampfbaren Materialien (z.B. Oxide). Hier kann man über die größere Targetfläche eine hohe Abscheiderate und damit einen wirtschaftlichen Prozess erzielen. Anwendungen sind die gleichen wie bei der Bedampfung (Linsen aller Art, Spiegel, Brillengläser und Filter). 2.5.5 Abscheiden organmetallischer Lösungen Bei dieser Technologie wird das Substrat in eine organometallische Lösung getaucht oder diese Lösung aufgesprüht und so ein Schichtfilm erzeugt. Nach dem Aufbringen der Lösung wird das benetzte Substrat getrocknet und in einem Ofen getempert. Beim Tempern wird der Film in ein reines Oxid verwandelt, wobei die organischen Anteile als flüchtige Oxide aus der Schicht ausgasen (Abb. 2.24). Anwendungen sind Optiken für Hochleistungslaser, die eine sehr hohe Zerstörschwelle haben.
Abb. 2.24. Prinzip Beschichtung durch Abscheiden organometallischer Lösungen
128
2 Fertigung optischer Komponenten und Systeme
2.5.6 Messtechnik Um die Dicke einer Schicht während des Beschichtungsvorgangs zu vermessen, werden Schwingquarze eingesetzt, die parallel zur optischen Komponente mitbeschichtet werden. Durch die dadurch entstehende Dickenänderung ändert der Schwingquarz seine Frequenz und die resultierende Verstimmung wird gemessen. Vorher muss das Frequenz- zu Dickenverhältnis kalibriert werden. Um die optischen Eigenschaften (z.B.Reflektivität) zu vermessen, werden Spektrofotometer mit speziellen Probeanordnungen verwendet. Eine solche V-W-Anordnung (V-W gibt den Strahlenverlauf ohne und mit Probe an) ist in Abb. 2.25 zu sehen. Die Wellenlänge des Lichts ist dabei auch noch über einen gewissen Bereich einstellbar.
Abb. 2.25. Prinzip der Messung der Reflektivität einer optischen (z.B. Spiegel) in V-W-Anordnung
Auch bei Antireflexschichten wir so der Restreflex R vermessen. Der Vorteil der Reflexmessung im Gegensatz zur Transmissionsmessung (Transmission T) ist, dass nicht der exakte Strahlengang im optischen Element nachgebildet werden muss. Damit sind handliche, portable Geräte möglich. Aus R + T 1 lässt sich die Transmission des Elements errechnen. Anwendung Serie und Prototypen von: Antireflexschichten: Linsensysteme, Brillen, Handydisplays, Beschichtung Glasfaserenden, Glas für Ausstellungen (Vitrinen, Bilder). Spektrale Filter: Erzeugen bzw. Filtern von Farben, beispielsweise TV Kamera, Beamer, Wellenlängen-Multiplexing in der optischen Tele kommunikation, Raketen-Lenksysteme, Augenschutz, (z.B. Laserschutzbrillen). Spiegel: Laser oder Teleskopspiegel. Dekorative Schichten: Architekturglas, farbige Brillengläser.
3 Optische Nachrichtenübertragung
3.1 Einführung Seit Anfang der 60er Jahre stehen uns Lichtquellen zur Verfügung, die gegenüber den zuvor vorhanden völlig neue Eigenschaften aufweisen; es handelt sich um den LASER. Kurze Zeit nachdem der erste Festkörperlaser funktionierte, wurde auch an Diodenlasern gearbeitet, die als Sender für optische Übertragungssysteme zum Einsatz kamen. Anfang der 70er Jahre entwickelten Forscher und Ingenieure die ersten optischen Glasfasern mit ausreichend niedriger Dämpfung, um elektromagnetische Wellen im nahen Infrarot zu übertragen. Fotodioden als Detektoren waren damals bereits vorhanden. Somit konnten Übertragungssysteme entwickelt werden mit dem Einsatz von elektro-optischen (E/O) und opto-elektrischen (OE) Wandlern als Sender und Empfänger und einer Glasfaser im Zentrum (Abb. 3.1).
Abb. 3.1. Prinzipielle Anordnung eines faseroptischen Systems
Hauptsächlich werden derartige Systeme in den Bereichen der optischen Übertragung und optischen Sensorik angewandt (Abb. 3.2). Als Erfinder der optischen Nachrichtenübertragung gelten Charles Kao (1963) und Manfred Börner (1964). Aus heutiger Sicht klingt ihre Erfindung nicht gerade spektakulär: Man nehme eine Lichtquelle als Sender, eine optische Faser als Übertragungsmedium und eine Fotodiode als Detektor (Abb. 3.1). Aber 1963 war dies eine Revolution; denn die Dämpfung von Glas lag in der Größenordnung von 1.000 dB/km, d.h. nach einem Kilometer der damals hypothetischen Glasfaser wäre der verbleibende
130
3 Optische Nachrichtenübertragung
Abb. 3.2. Anwendung faseroptischer Systeme
Anteil des Lichts um 100 Dekaden geschwächt, für Systeme im praktischen Einsatz ein unrealistischer Wert. Heutige Glasfasern erreichen eine Dämpfung von weniger als 0,2 dB/km; dies bedeutet, dass nach 100 km noch mehr als 1% der Strahlungsleistung ankommt. Dieser niedrige Wert macht eine Übertragung mit Hilfe von Glasfasern im Vergleich zu konventionellen elektrischen Systemen sehr attraktiv (Abb. 3.3). Dazu kommen
Abb. 3.3. Vergleich der Dämpfung von Koaxialkabeln und Glasfasern (D: Dämpfungskoeffizient; f: Frequenz)
3.2 Glasfasern
131
weitere Vorteile wie niedriges Gewicht, geringe Größe, Unempfindlichkeit gegenüber EMV-Problemen, elektrische Isolation und geringes Nebensprechen. Auch die Abhörsicherheit ist größer als bei elektrischen Übertragungssystemen. Vor allem aber muss die hohe erzielbare Übertragungskapazität (transmission capacity) Ct genannt werden, das Produkt aus Bandbreite B und Faserlänge L:
Ct
BL .
(3.1)
Man will also möglichst viel Information über eine möglichst lange Strecke übertragen. Abbildung 3.4 zeigt das Dämpfungsverhalten. Insbesondere beobachtet man, im Gegensatz zu elektrischen Systemen, eine Unabhängigkeit der Glasfaserdämpfung von der Modulationsfrequenz. Letztere werden vor allem durch den Skineffekt beeinträchtigt.
3.2 Glasfasern Das Prinzip der Wellenleitung lässt sich in guter Näherung durch das Snellius’sche Brechungsgesetz bzw. durch die Totalreflexion erklären (Abschn. 1.1.3). Dabei ist der Akzeptanzwinkel4 (Gl. 1.12), der größtmögliche Winkel, damit gerade noch Wellenführung existiert, eine wichtige Größe. Wird 4 überschritten, so kommt es nicht mehr zur Totalreflexion im Kernbereich; es dringen Lichtwellen in den Mantel ein. Aus dem Snellius’schen Brechungsgesetz und aus der Grenzbedingung für Totalreflexion (Gl. 1.11) folgt die numerische Apertur AN (Gl. 1.12), eine für die Einkopplung von Licht in eine Glasfaser entscheidende Größe. Deshalb ist bei Glasfasern eine möglichst hohe numerische Apertur anzustreben. Eine weitere wichtige Größe bei der Beschreibung von Fasern ist die relative Brechzahldifferenz '. Unter Berücksichtigung einer Taylor-Entwicklung erhält man folgenden Zusammenhang:
'
n12 n22 n1 n2 . | 2n12 n1
(3.2)
Damit gilt für die numerische Apertur für Stufenindexfasern:
AN
n1 2' .
(3.3)
Für Gradientenfasern, bei denen die Brechzahl im Kern variiert (Abb. 1.7 und Abb. 3.11) gilt:
AN
n1 n 2 ( r ) n22 .
(3.4)
132
3 Optische Nachrichtenübertragung
Man bezeichnet n(r) als Brechzahlprofil:
n( r ) n1 1 2'r / a g für r a und
n( r ) n2 für r t a .
(3.5)
Dabei ist a der Kernradius und g der Profilparameter. Für g o f erhält man einen Sprung (Stufenindexfaser). Bei Gradientenfasern wählt man in etwa ein parabolisches Profil mit g | 2 (Abb. 3.11). Mit solchen Fasern lassen sich Übertragungen für höhere Bitraten im Vergleich zu Stufenindexfasern erzielen (Abschn. 3.2.2). Die verschiedenen existierenden Strahlen mit ihren zugehörigen Winkeln nennt man Moden. Die möglichen ausbreitungsfähigen Moden sind abhängig von der Wellenlänge O der verwendeten Lichtquelle sowie von den Faserparametern a und AN. Der Strukturparameter V fasst diese Größen zusammen: V
2S aAN
O
.
(3.6)
Die Anzahl der Moden bei den oben beschriebenen Fasern bestimmt sich für große N zu:
N
V2 g . 2 g2
Für eine Stufenindexfaser erhält man somit N
(3.7)
V2 und für eine Gra2
V2 . Typische Werte liegen jedoch auf4 grund der unterschiedlichen Faserparameter (Tabelle 3.1, bzw. Abb. 3.11) sehr viel weiter auseinander. Eine Stufenindexfaser führt typischerweise 20.000 Moden, eine Gradientenfaser nur etwa 600. Man spricht von einer Vielmodenfaser, häufig auch als Multimodefaser bezeichnet. Reduziert man die numerische Apertur und den Kerndurchmesser, so verringert sich auch der Strukturparameter und die Modenanzahl. Fällt der Strukturparameter unter den Wert 2,405, so kann sich nur noch ein Modus ausbreiten. Man erhält eine Einmodenfaser, häufig auch als Monomodefaser bezeichnet. Mit solchen Fasern lassen sich Übertragungen für sehr hohe Bitraten erzielen (Abschn. 3.2.2).
dientenfaser nur die Hälfte: N
3.2 Glasfasern
133
Beispiel: Eine Stufenindexfaser hat die Kernbrechzahl 1,457 und die relative Brechzahldifferenz ' = 0,00956. Welchen Wert besitzt die Mantelbrechzahl n2? Wie groß darf der Winkel unter dem in die Faser eingestrahlt wird maximal sein, damit es zur vollständigen Wellenführung kommt? Wie groß ist der Grenzwinkel der Totalreflexion?
Lösung: Aus Gl. (3.2) folgt n2 = 1,443. Für die numerische Apertur erhält man somit nach Gl. (3.3) oder Gl. (1.12): AN = 0,201. Daraus ergibt sich mit Gl. (1.12) ein Akzeptanzwinkel von 4 = 11,6°. Für den Grenzwinkel der Totalreflexion erhält man nach Gl. (1.11): Hg = 82,05°. Ƒ
Beispiel: Eine Stufenindexfaser besitzt die Kernbrechzahl 1,5 und die Mantelbrechzahl 1,4. Ihr Kerndurchmesser beträgt 70 µm. Als Lichtquelle kommt ein Halbleiterlaser mit einer Frequenz von 230 THz zum Einsatz. Wie viele Moden führt diese Faser? Wie viele Moden führt eine Gradientenfaser mit den gleichen Daten? Auf welchen Kernradius müsste man bei einer numerischen Apertur von 0,107 die Stufenindexfaser verringern, damit sie zur Einmodenfaser wird? Was passiert, wenn man bei dieser Faser eine Lichtquelle mit deutlich größerer Wellenlänge (1,55 Pm und anschließend deutlich kleinerer Wellenlänge (0,85 Pm) einsetzt?
Lösung: Aus Gl. (3.6) folgt: Strukturparameter V = 90,79. Daraus ergibt sich mit Gl. (3.7) die Modenanzahl N = 4.120; für eine Gradientenfaser mit g = 2 dagegen erhält man genau halb so viele Moden, N = 2.060. Aus Gl. (3.6) folgt mit der numerischen Apertur 0,107 außerdem für den Kernradius a = 4,67 µm. Bei einer Wellenlänge von O = 1,55 µm ergibt sich V = 2,02 < 2,405; die Faser bleibt weiterhin einmodig, für O = 0,85 µm wird die Faser dagegen mehrmodig. Ƒ
3.2.1 Dämpfung in Glasfasern Die wichtigsten Anforderungen an optische Fasern sind eine gute Wellenführung, niedrige Dämpfung der optischen Lichtleistung und geringe Verzerrungen (Abschn. 3.2.2.) der optischen Signale.
134
3 Optische Nachrichtenübertragung
Geführte Welle von A nach B
Abb. 3.4. Totalreflexion und Wellenleitung
Insbesondere muss herausgestellt werden, dass es keine Verluste durch die Vielfachreflexionen gibt (Abb. 3.4), da bei Totalreflexion der Reflexionsgrad für jede sich wiederholende Reflexion R = 1 ist. Somit ist die Faserdämpfung ist erster Näherung nur abhängig von Verlusten innerhalb der Faser. Der Dämpfungskoeffizient D berechnet sich aus der in die Faser eingekoppelten Lichtleistung P0 , aus der Leistung am Faserende P sowie aus der Faserlänge L:
D
10 dB P lg . L P0
(3.8)
Die Gesamtdämpfung der Faser D ist dann
D DL
10 dB lg
P . P0
(3.9)
Die wichtigsten Dämpfungsmechanismen sind die Rayleigh-Streuung und OH -Absorption. Der Streueffekt kommt durch Inhomogenitäten der Molekülstruktur von Glas (Siliciumdioxid, SiO2) zustande. Dadurch entstehen statistische Schwankungen der Brechzahl; dies führt zur Streuung des sich in der Glasfaser ausbreitenden Lichts und verursacht einen Verlust. Der Verlust, die gestreute Leistung PS und damit auch der Dämpfungskoeffizient D, hängen stark von der Wellenlänge O der Lichtwelle ab:
D~
1
O4
.
(3.10)
Lord Rayleigh entdeckte diesen Effekt und erklärte damit, warum der Himmel blau ist: Wenn wir in den Himmel schauen, sehen wir das gestreute Weißlicht der Sonne. Dabei wird blaues Licht sehr viel stärker gestreut als rotes. Derselbe Effekt bewirkt in Glasfasern viel höhere Verluste für blaues als für rotes Licht (Abb. 3.5). Deshalb arbeiten Glasfasersysteme sogar jenseits des roten Bereichs, also im Infrarot.
3.2 Glasfasern
135
50
dB km 10
1973
Dämpfungskoeffizient α
5 2 1
1981
0,5
Seit 1979 0,2 0,1
GaAlAs Si
Sendeelemente
InGaAsP InGaAs
Ge HgCdTe
0,6
0,8
1,0
1,2
Empfangselemente 1,4
µm
1,8
Wellenlänge λ
Abb. 3.5. Spektrale Einsatzbereiche von Glasfasern sowie von Sende- und Empfangsbauelementen
Das räumliche Verhalten der Rayleigh-Streuung entspricht dem eines Hertz’schen Dipols. Die gestreute Leistungsverteilung ist in Abb. 3.6 dargestellt:
PS ~ cos 2 G .
(3.11)
Abb. 3.6. Räumliche Charakteristik der Rayleigh-Streuung (PS: gestreute Leistung; G: Winkel zur Ausbreitungsrichtung). Die Figur ist rotationssymmetrisch um die senkrecht stehende Achse des Dipols (Richtung des elektrischen Feldvektors E der elektromagnetischen Welle)
136
3 Optische Nachrichtenübertragung
Abbildung 3.5 zeigt außerdem hohe Absorptionsspitzen. Diese kommen von der Absorption des Lichts an unerwünschten Molekülen im Glas. Der größte Feind einer Glasfaser ist Wasser, welches in der Form von OH Ionen in der Siliciumdioxidstruktur auftritt. Die OH - Moleküle werden durch die Lichtwellen in Schwingungen versetzt. Dieser Effekt ist insbesondere dominant wenn Resonanz auftritt. Dies geschieht bei den passenden Frequenzen bzw. Wellenlängen (siehe Spitzen in Abb. 3.5). Dadurch wird die Energie der sich in der Faser ausbreitenden Lichtwelle absorbiert, was zu einer hohen Dämpfung führt. Um eine niedrige Faserdämpfung zu erzielen, sind die Forderungen an die Reinheit einer Glasfaser sehr hoch; -9 der Anteil der OH -Konzentration darf 1 ppb (10 ) nicht überschreiten. Das war einer der wichtigsten Gründe, warum es lange Zeit gedauert hat von der ersten Idee einer optische Übertragung etwa 1963 bis zur ersten tatsächlich hergestellten Glasfaser 1972. Darüber hinaus muss erwähnt werden, dass die Glasfaser auch durch SiO2-Eigenabsorption sowohl im ultravioletten (UV) als auch im infraroten Bereich (IR) zusätzliche Dämpfung erfährt. Dies kann prinzipiell nicht vermieden werden, da sonst keine Glasfaser mehr vorhanden wäre. Während jedoch die UV-Absorption vernachlässigt werden kann im Vergleich zu dem viel höheren Wert durch die Rayleigh-Streuung, ist die IR-Absorption verantwortlich für den Dämpfungsanstieg jenseits von 1.600 nm. Beide Ursachen gemeinsam bestimmen auch die spektrale Lage des Dämpfungsminimums von 0,176 dB/km bei etwa 1.550 nm (Abb. 3.5 und 3.7).
Abb. 3.7. Auswirkungen der Dämpfungsmechanismen Rayleigh-Streuung, Eigenabsorption und OH--Ionen-Absorption
Beispiel: Der Dämpfungskoeffizient D einer heutigen Glasfaser bei einer Wellenlänge von 850 nm beträgt etwa 2,1 dB/km. Berechnen Sie den theoretischen Wert von D bei einer Wellenlänge 1.550 nm.
3.2 Glasfasern
137
Lösung: Bei heutigen Glasfasern ist die Dämpfung bei 850 nm fast ausschließlich durch die Rayleigh-Streuung bedingt. UV-Eigenabsorption und OH -Ionen-Absorption sind vernachlässigbar. Aus Gl. (3.10) folgt:
D (1550 nm) D (850 nm)
4
§ 850 · = 0,0904 ¨ ¸ © 1550 ¹
und somit der Dämpfungskoeffizient:
D = 0,19 dB/km. Ƒ
3.2.2 Dispersionen in Glasfasern Neben der Dämpfung sind die Dispersionsmechanismen ein weiteres Problem in Fasern. Die unterschiedlichen Dispersionen haben alle den Effekt, dass ein schmaler Impuls am Fasereingang mit einer Halbwertsbreite t1 (FWHM: Full Width at Half Maximum) als breiter Impuls am Faserende mit einer Halbwertsbreite t2 wieder austritt (Abb. 3.8). Man nennt diesen Effekt Impulsverbreiterung ǻW :
ǻW
t22 t12 .
(3.12)
Abb. 3.8. Optischer Impuls am Anfang und am Ende einer Glasfaserstrecke
Die wichtigsten Dispersionsmechanismen sind die Modendispersion und die chromatische Dispersion. Bei sehr schnellen Übertragungssystemen kommt noch die Polarisationsmodendispersion (PMD) hinzu. Die Modendispersion beeinflusst die Übertragungskapazität am stärksten: Die Lichtstrahlen im Kern der Glasfaser breiten sich nicht nur unter einem einzigen Winkel in der Glasfaser aus. Abbildung 3.9 zeigt drei repräsentative Strahlenverläufe, stellvertretend für Hunderte oder Tausende.
138
3 Optische Nachrichtenübertragung
Abb. 3.9. Impulsverbreiterung durch Modendispersion in einer Stufenindexfaser
Es ist offensichtlich, dass sie nicht die gleiche geometrische Weglänge L besitzen. Die bestimmende Größe für die Ausbreitung von Licht in der Faser ist jedoch nicht der geometrische, sondern der optische Weg l (Gl. 1.6). Da die Brechzahl n bei dem hier vorgestellten Fasertyp im Kern konstant ist (Abb. 3.11), gilt l = nL; darin unterscheiden sich auch die optische Weglänge der drei verschieden Moden. Somit breitet sich ein optischer Impuls in der Faser auch auf diesen drei unterschiedlichen Wegen aus. Dies hat zur Konsequenz, dass die drei Impulse verschiedene Laufzeiten aufweisen und am Faserende zu verschieden Zeiten ankommen. Die Impulse überlagern sich und somit ergibt sich ein breiterer Ausgangsimpuls im Vergleich zum schmalen Eingangsimpuls. Dieses Verhalten hat weitreichende Konsequenzen: Soll eine hohe Datenrate übertragen werden, dann muss der zweite Impuls unmittelbar nach dem ersten ausgesendet werden. Durch die Impulsverbreiterung überlappen aber die beiden Impulse derart, dass sie nicht länger getrennt werden können. Die Entwicklung der aufeinanderfolgenden Impulse am Faserausgang zeigt Abb. 3.10.
Abb. 3.10. Verbreiterung zweier aufeinanderfolgender Einzelimpulse und deren Verschmierung, L1, L2, L3 Faserlängen
3.2 Glasfasern
139
Um die Überlappung zu vermeiden, müssen die beiden Eingangsimpulse einen größeren zeitlichen Abstand haben. Dies verringert jedoch die erzielbare Bandbreite B. Eine andere Möglichkeit wäre, die Faserlänge L zu reduzieren. Beide Maßnahmen verringern jedoch die erzielbare Übertragungskapazität, das Produkt aus Bandbreite und Länge, das in der Nachrichtenübertragung möglichst maximal sein sollte:
BL
Maximum !
(3.13)
Um dieses Problem zu vermeiden bzw. zu verringern, haben die Forscher die Gradientenindexfaser erfunden (Abb. 1.7 und Abb. 3.11). Im Gegensatz zu der oben beschriebenen Stufenindexfaser ist die Brechzahl bei der Gradientenindexfaser über den Kernquerschnitt nicht konstant: Die Brechzahl weist ein Gradientenverhalten im Faserkern auf, bleibt jedoch weiterhin konstant im Mantelbereich. Deshalb ist für jeden Modus der optische Weg (Gl. 1.6) konstant. Im Zentrum der Glasfaser ist der geometrische Weg zwar am kürzesten, die Brechzahl jedoch am größten; umgekehrt ist der geometrische Weg für Moden in Mantelnähe am größten, jedoch die Brechzahl am kleinsten. Wählt man ein geeignetes Brechzahlprofil, so erhält man eine konstante optische Weglänge für alle Moden. An dieser Stelle muss jedoch darauf hingewiesen werden, dass es nicht möglich ist, dieses Ziel vollständig zu erreichen. Man erhält nur eine gute Näherung und es verbleibt immer noch ein bestimmter Anteil an Modendispersion. Dies führt
Abb. 3.11. Fasertypen im Vergleich
140
3 Optische Nachrichtenübertragung
letzten Endes wieder zu einer nicht vernachlässigbaren Reduktion der Übertragungskapazität. Bisher wurde angenommen, dass die Impulsverbreiterung mit der Faserlänge proportional zunimmt. Praktische Ergebnisse weisen jedoch eine geringere Zunahme auf. Dies entsteht durch Modenkonversion: Moden mit längeren Laufzeiten wechseln auf Modenplätze mit kürzeren und umgekehrt, man erhält: ǻW ~ LJ mit 0,5 < J <1, wobei der Verkettungsexponent J häufig einen Wert von 0,7 bis 0,8 annimmt. Um das Problem der Modendispersion zu lösen wurde die Monomodefaser entwickelt: Wenn man den Faserkerndurchmesser auf Werte unter etwa 10 µm reduziert (V < 2,405, Gl. (3.6)), existiert nur noch der Grundmodus. Es kann sich nur noch ein einziger Lichtstrahl ausbreiten, nämlich derjenige entlang der optischen Achse. Dadurch verschwindet die Modendispersion. Für sehr hohe Datenraten (über 40 Gbit/s) muss diese Aussage aufgrund von Polarisationseffekten jedoch eingeschränkt werden. Sehr genaue Untersuchungen führen zu dem Ergebnis, dass die Glasfaser in zwei zueinander senkrechten Richtungen verschiedene Brechzahlen aufweist. Man nennt diesen Effekt Doppelbrechung (Abschn. 1.2.2.3). Unter Berücksichtigung der Polarisation stellt man somit fest, dass eine Standard-Einmodenfaser aufgrund der Doppelbrechung eigentlich zwei Moden führt. Ein Eingangsimpuls, der sich auf die beiden Polarisationshauptachsen aufteilt, breitet sich mit unterschiedlicher Geschwindigkeit in der Faser aus (Abb. 3.12.).
Abb. 3.12. Trennung der Polarisationsmoden in einer doppelbrechenden Einmodenfaser
Dies hat zur Folge, dass wieder Laufzeitdifferenzen ǻW am Ende der Faserstrecke entstehen. Diese sind im Allgemeinen jedoch nicht so groß, dass die beiden Impulse völlig getrennt sind, sondern sie überlappen sich. Es kommt zu einer weiteren Impulsverbreiterung und damit zu einer weiteren Dispersion, der Polarisationsmodendisperion (PMD). Abbildung 3.13 zeigt schematisch dargestellt einen typischen Impuls am Faserende, der durch die Überlagerung der beiden Polarisationsmoden zustande kommt.
3.2 Glasfasern
141
Abb. 3.13. Impulsentwicklung durch Polarisationsmodendispersion (PMD)
Die Laufzeitdifferenzen sind dabei sehr gering, sie wirken sich praktisch erst bei Datenraten über 10 Gbit/s aus. Letztere sind aber heute durchaus interessant für Hochbitraten-Weitverkehrssysteme, da der Bedarf an Übertragungsrate insbesondere durch zunehmende Internetapplikationen immer weiter steigt. Darüber hinaus gibt es ähnlich wie bei der Modenkonversion in Vielmodenfasern auch eine Polarisationsmodenkonversion. Dadurch wird die Problematik etwas verringert, der Dispersionseffekt nimmt ebenfalls wie bei der Modenkonversion nicht linear zu, sondern nur etwa mit der Quadratwurzel der Faserlänge; typische Werte 0,5 liegen unter 0,5 ps/km . Während die klassischen Dispersionen, die Moden- und die chromatische Dispersion deterministische Prozesse sind, handelt es sich bei PMD um einen statistischen Prozess, der sich zeitlich stark ändert. Das Übertragungssystem kann im günstigsten Fall tagelang problemlos die geforderte Bitfehlerrate aufweisen und plötzlich kommt es zum Totalausfall. Verringert man die PMD, so heißt das nicht, dass man ihre Auswirkung absolut vermeiden kann. Die Wahrscheinlichkeit, dass es zu einem Totalausfall kommt, wird allerdings vermindert. Man spricht daher eher von einer Reduzierung als von der Vermeidung des Problems. Die Auswirkungen der PMD werden somit über den Verlust an Empfängerempfindlichkeit und durch Ausfallwahrscheinlichkeiten charakterisiert. Daraus ergibt sich eine Erniedrigung der erzielbaren Übertragungskapazität von Systemen (Gl. 3.1). Abbildung 3.14 zeigt eine Abschätzung der Bitratenabnahme als Funktion der Übertragungslänge unter der typischen Voraussetzung, dass die PMD-bedingten Laufzeitdifferenzen weniger als 10% der Bitperiodendauer betragen; experimentelle Untersuchungen bestätigen diese Annahme.
142
3 Optische Nachrichtenübertragung
Abb. 3.14. Maximale Bitrate als Funktion der Streckenlänge
Das Problem lässt sich durch zwei Maßnahmen lösen. Die erste Möglichkeit ist eine elektronische Signalentzerrung (Abb. 3.15 oben): Das bei digitaler Übertragung typische stufenförmige Ausgangssignal des Detektors lässt unmittelbar auf PMD-Effekte schließen. Durch Berücksichtigung der bekannten Bitperiodendauer und durch rückgekoppelte Abtasttechniken ist es möglich, das Signal elektronisch zu regenerieren.
Abb. 3.15. Elektronische (oben) und optische Kompensation (unten) der PMD
3.2 Glasfasern
143
Eine andere Möglichkeit ist die optische Signalentzerrung (Abb. 3.15 unten); dabei wird ein stark doppelbrechendes Medium eingesetzt, das die PMD-bedingten Laufzeitdifferenzen gerade wieder aufhebt. Dazu muss jedoch dem Medium jeweils die richtige Polarisationskomponente angeboten werden, damit der Impuls der schnellen Polarisationsachse zeitlich wieder mit demjenigen der langsamen zusammenfällt. Dazu kommt eine Polarisationsregelung zum Einsatz. Als weitere Dispersion ist die Materialdispersion zu nennen. Weil es keine Lichtquelle gibt, die nur eine einzige Wellenlänge emittiert (Abschn. 1.2.3.2), kann sich in einer Glasfaser keine monochromatische, sondern immer nur eine polychromatische Lichtwelle ausbreiten. Die Brechzahl von Glas ist aber abhängig von der Wellenlänge der Lichtwelle. Polychromatische Lichtwellen rufen somit verschiedene Brechzahlen hervor (Regenbogen) und somit wieder unterschiedliche optische Weglängen entsprechend unterschiedlicher Geschwindigkeit der spektral verschieden Impulse in der Faser. Abbildung 3.16 zeigt stellvertretend drei Impulse, die verschiedene Spektralanteile repräsentieren. Sie besitzen unterschiedliche Laufzeiten in der Glasfaser und kommen daher zu verschiedenen Zeiten am Ende der Faser an. Diese drei Impulse überlagern sich, wie bereits bei der Modendispersion beschrieben, und man erhält wiederum einen breiteren Ausgangsimpuls im Vergleich zum schmalen Eingangsimpuls der Glasfaser. Das Ergebnis ist das gleiche wie bei der Modendispersion, nur der Mechanismus ist verschieden. Der Effekt führt wieder zu einer Impulsverbreiterung und damit zu einer Verringerung der Übertragungskapazität.
Abb. 3.16. Impulsverbreiterung durch Materialdispersion
Zur Materialdispersion kommt noch die Wellenleiterdispersion hinzu: Abb. 3.17 zeigt die Aufteilung der Lichtleistung des Grundmodus einer Einmodenfaser (hier der einzige Modus).
144
3 Optische Nachrichtenübertragung
Abb. 3.17. Grundmodus einer Einmodenfaser und die Aufteilung der Strahlungsleistung auf Kern und Mantel, optische Leistung P als Funktion der Radialkoordinate r
Ein Großteil der Leistung wird zwar im Kern geführt, ein weiterer Teil dringt aber in den Mantel der Faser ein. Die Ausbreitungsgeschwindigkeit eines Impulses in der Faser ist daher nicht nur abhängig von der Faserkernbrechzahl, sondern auch von derjenigen im Mantel. Da die Kernbrechzahl größer als die Mantelbrechzahl ist, versuchen die Mantelanteile des Impulses diejenigen des Kerns zu überholen. Der Grundmodus bildet jedoch eine Einheit und kann nicht auseinandergerissen werden. Es stellt sich eine effektive Geschwindigkeit ein. Die Aufteilung des Lichts auf Kern und Mantel ist aber abhängig von der Wellenlänge. Somit ist die sich einstellende effektive Ausbreitungsgeschwindigkeit des Impulses ebenfalls von der Wellenlänge abhängig. Es kommt zu einer weiteren Dispersion, hervorgerufen durch die Wellenführung des Wellenleiters: der Wellenleiterdispersion. Für ein Übertragungssystem ist das Zusammenwirken aller Dispersionen entscheidend. Materialdispersion und Wellenleiterdispersion addieren sich linear zur chromatischen Dispersion. Durch geeignete Wahl des Kerndurchmessers und durch Beeinflussung des Brechzahlprofils kann die Wellenleiterdispersion stark beeinflusst werden. Ebenso ist es möglich, die Materialdispersion zu variieren. Dies geschieht durch Veränderung der Dotierung im Faserkern. Abbildung 3.18 zeigt die Überlagerung von Material- und Wellenleiterdispersion zur chromatischen Dispersion.
3.2 Glasfasern
145
Abb. 3.18. Dispersionsgeglättete Faser
Dabei wurde der Verlauf der Dispersionskurve umgekehrt. Man erhält einen großen Wellenlängenbereich, in welchem die chromatische Dispersion zwar nicht verschwindet, aber einen so niedrigen, tolerierbaren Betrag aufweist, dass die Faser über diesen großen Wellenlängenbereich eingesetzt werden kann (Abschn. 3.4.1). Man nennt diese Faser auch dispersionsgeglättete Faser. Die Dispersionsnullstelle, d.h. die Wellenlänge bei der die chromatische Dispersion verschwindet, lässt sich durch die oben diskutierte Beeinflussung auch verschieben, beispielsweise zu 1.500 nm, bei der die Faser gleichzeitig ein Minimum der Dämpfung aufweist. Man erhält eine dispersionsverschobene Faser. Zur Kompensation der chromatischen Dispersion verwendet man im Labor eine dispersionskompensierende Faser (DCF, Dispersion Compensating Fiber). Diese besitzt bei der zu verwendenden Wellenlänge gerade eine chromatische Dispersion mit umgekehrtem Vorzeichen wie die Übertragungsfaser und ihr Betrag ist etwa sechsmal so groß. Will man also den Effekt vollständig kompensieren, muss man eine DCF mit einer Länge von einem Sechstel der Übertragungsfaser einsetzten. Diese weist jedoch eine höhere Dämpfung als Standardeinmodenfasern auf, ist erheblich teurer und somit für den praktischen Einsatz derzeit ungeeignet. Sie wird daher nur für Forschungs- und Entwicklungsarbeiten im Labor eingesetzt. Fasst man alle Dispersionen zusammen, so erhält man die Gesamtdispersion, die sich als Impulsverbreiterung ǻW (Gl. (3.12)) auswirkt:
ǻW
( M Mod LJ ) 2 ( M Chr LǻO ) 2 .
(3.14)
146
3 Optische Nachrichtenübertragung
Dabei sind MMod und MChr die Koeffizienten der Modendispersion bzw. der chromatischen Dispersion, L ist die Faserlänge, J der Verkettungsexponent und 'O die spektrale Halbwertsbreite (FWHM) der Lichtquelle (Abschn. 1.2.3.2). Den Anwender interessiert vor allem, welche Bandbreite B bzw. Bitrate BR über eine Glasfaser übertragen werden kann. Für den Zusammenhang zwischen Bandbreite B und Impulsverbreiterung ǻW gilt folgende Näherung:
B|
1 . 2ǻW
(3.15)
Mit der Bandbreite kann nach dem Nyquist-Theorem theoretisch die doppelte Bitrate übertragen werden. Für Systeme im praktischen Einsatz gilt etwa folgender Zusammenhang: B | 0,75 BR . (3.16) Beispiel: Bei einem optischen Übertragungssystem kommt eine Gradientenfaser zum Einsatz. Der Koeffizient der Modendispersion beträgt MMod = 10 ps/kmJ, derjenige der chromatischen Dispersion beläuft sich auf MChr = 10 ps/(km nm). Vervierfacht man die Faserlänge, so steigt die Modendispersion nur um einen Faktor 2. Kann mit diesem Übertragungssystem ein 4 Gbit/s-Signal über L = 100 km übertragen werden, wenn ein Laser mit einer spektralen Breite von 'O = 0,1 nm zur Verfügung steht?
Lösung: Da die Modendispersion nur mit der Wurzel der Faserlänge ansteigt gilt J = 0,5. Für die Impulsverbreiterung ergibt sich somit nach Gl. (3.14): 'W = 141 ps. Damit folgt für die Bitrate nach Gl. (3.15) bzw. Gl. (3.16): BR = 4,71 Gbit/s. Die Übertragung eines 4 Gbit/s-Signals ist also möglich. Ƒ
3.2.3 Typenklassen von Glasfasern Abbildung 3.19 zeigt rasterelektronenmikroskopische Aufnahmen von den drei am meisten eingesetzten Fasertypen im Vergleich mit einem Frauenhaar. Tabelle 3.1 fasst die wichtigsten Faserdaten zusammen. Dabei müssen noch zwei weitere Fasertypen erwähnt werden. Für low-cost-Anwendungen in der faseroptischen Übertragung kommen Plastikfasern (PMMA) und PCS-Fasern (Plastic Cladding Silica Core) zum Einsatz. Die Übertragungskapazität ist wesentlich niedriger als bei reinen Glasfasern. Jedoch gibt es eine Reihe von Anwendungen vor allem bei kurzen Entfernungen
3.2 Glasfasern
147
Abb. 3.19. Vergleich von Fasertypen mit einem Frauenhaar
im Bereich von 10 m bis 100 m und niedrigen Datenraten, beispielsweise im Automobilbereich oder um eine Werkzeugmaschine in EMV-relevanter Umgebung zu überwachen. Auch für die letzte Meile bei Übertragungssystemen kommen Plastikfasern zum Einsatz. Dies erreichen zwar hohe Datenraten aber nur kurze Entfernungen (Cytop-Fasern, Abschn. 3.4.5). Tabelle 3.1. Typische Faserparameter im Vergleich Fasertyp
Maße Num. Apertur Pm Plastik (PMMA) Stufen 300 – 1.000 0,5 Plastik (CYTOP) Grad. 62,5/1252) PCS Stufen 100 600 0,3 Multimode Stufen > 100 1) 0,3 – 0,6 0,23 Multimode Grad. 50/125 2) 2) < 0,1 Monomode 5/125 1)
Profil
Dämfung dB/km 200 20/1/13) 6 5 2/0,35/0,2 3) 2/0,35/0,23)
Übertragungskapazität 10 MHz km 20 MHz km 500 MHz km > 100 GHz km
Kerndurchmesser, 2) Kern/Manteldurchmesser, 3) bei 850/1.300/ 1.550 nm
148
3.3
3 Optische Nachrichtenübertragung
Optische Sender und Empfänger
Für faseroptische Systeme kommen fast ausschließlich Halbleiter-Lichtquellen und - Lichtsenken zum Einsatz, d. h., Laser und LEDs als Quellen, pin-Fotodioden und Lawinenfotodioden als Senken (Abschn. 1.5 und Abschn. 1.6). Die wichtigsten Anforderungen an die Lichtquellen sind hohe optische Ausgangsleistungen bei gleichzeitig niedriger erforderlicher elektrischer Eingangsleistung. Mit Bezug auf die Eigenschaften der Glasfaser sollte die spektrale Breite der Lichtquelle möglichst gering sein. Für einen guten Koppelwirkungsgrad ist es außerdem wünschenswert, dass die Strahldivergenz möglichst gering ausfällt und die geometrische Größe der Abstrahlfläche klein ist. Darüber hinaus sollte eine Modulation mit Hilfe des Injektionsstroms bis weit in den GHz-Bereich hinein möglich sein. Um die prinzipielle Funktion von Halbleiter-Lichtquellen und -senken zu verstehen, müssen fundamentale Betrachtungen bei der Wechselwirkung zwischen Photonen und Elektronen angestellt werden. Abbildung 3.20 zeigt die optische Leistung als Funktion des Injektionsstroms eines Halbleiterlasers.
Optische Leistung P
10
mW 20°C 70°C
5
0 0
20 Strom I
40
mA 60
Abb. 3.20. Leistungs-Strom-Kennlinie eines Halbleiterlasers bei zwei verschiedenen Temperaturen
Unterhalb des Schwellenstroms arbeitet der Laser im LED-Betrieb. Nach dessen Überschreitung kommt es dann zur stimulierten Emission und zum Laserbetrieb. Leider existiert eine starke Abhängigkeit des Schwellenstroms von der Temperatur. Daher sind Regelungsmaßnahmen erforderlich, eine Temperaturregelung oder eine Regelung mithilfe einer Monitor-Fotodiode, um die optische Ausgangsleistung zu stabilisieren. Bei der Temperaturregelung wird je nach Ergebnis des Temperatur-Soll-Ist-Vergleichs Wärme von A nach B umgepumpt bzw. umgekehrt (Abb. 3.21), bis die gewünschte Temperatur im Gehäuse der Laserdiode erreicht ist. Bei der Arbeitspunktregelung wird
3.3 Optische Sender und Empfänger
149
ein Leistungs-Soll-Ist-Vergleich mit Hilfe einer Monitordiode durchgeführt und der Laserdiode in dem Maße ein Unterlegstrom zugeführt, dass die Ausgangsleistung konstant bleibt (Abb. 3.22).
Abb. 3.21. Prinzipielle Anordnung einer Temperaturregelung für Laserdioden
Abb. 3.22. Prinzipielle Anordnung einer Arbeitspunktregelung für Laserdioden
Unglücklicherweise zeigen die für den Einsatz in faseroptischen Systemen üblichen Fabry-Perot-Laser eine starke Strahldivergenz (Abb. 1.59) verbunden mit einem Astigmatismus. Beide Effekte erschweren die LaserFaser-Kopplung insbesondere in eine Monomodefaser. Für niedrige Datenraten kann auch eine kostengünstigere LED eingesetzt werden. Die LED als Lambert-Strahler (Abschn. 1.3.1) emittiert Licht in den Halbraum; dies macht die Faserkopplung noch schwieriger. Ein weiterer interessanter Vergleich zwischen Laser und LED bezieht sich auf die Kohärenzeigenschaften: die spektrale Breite einer Laserdiode ist wesentlich geringer als diejenige einer LED. Außerdem ist die Absolutleistung eines Halbleiterasers in der Regel mindestens eine Dekade größer als die einer LED. Eine schmale spektrale Breite ermöglicht ein deutlich besseres Verhalten der Lichtquelle bezüglich der Materialdispersion in einer Glasfaser
150
3 Optische Nachrichtenübertragung
(Abschn. 3.2.2). Optische Absolutleistung, Fernfeldverhalten und spektrale Eigenschaften befähigen den Laser damit weit mehr als die LED für anspruchsvolle Übertragungssysteme. Daher kommen für hochbitratige Weitverkehrsysteme ausschließlich Hableiterlaser zum Einsatz. Für lowcost-Systeme mit niedrigen Bitraten und kurzen Entfernungen werden dagegen vorwiegend LEDs eingesetzt. Die wichtigsten Anforderungen an Fotodioden für faseroptische Systeme sind eine hohe Empfindlichkeit, niedriges Rauschen, Linearität (nur für Analogsysteme notwendig) und eine geringe geometrische Größe. Die am häufigsten verwendeten Komponenten sind pin-Fotodioden und LawinenFotodioden (Avalanche Photodiode, APD, Abschn. 1.5). Alle Fotodioden für optische Übertragungssysteme werden in Sperrichtung betrieben. Dies bewirkt, dass ein elektrisches Feld im Halbleitermaterial entsteht und somit die durch den inneren Photoeffekt freigesetzten Elektronen und Löcher beschleunigt werden. Dadurch können schnelle Bauelemente realisiert werden. Im Gegensatz zur pin-Fotodiode besitzt die APD zusätzlich noch eine innere Verstärkung und ist damit ein gut geeignetes Bauelement für optische Systeme. Die kleine geometrische Größe ermöglicht niedrige Werte für die Sperrschichtkapazität. Somit können hohe Grenzfrequenzen erzielt werden. Die innere Verstärkung darf jedoch nicht zu hoch eingestellt werden, sonst verringert sich die Grenzfrequenz wieder. Durch Verwendung der oben beschriebenen Komponenten kann prinzipiell eine faseroptische Übertragung aufgebaut werden unter Einsatz von Lichtquellen- und Senken (Abb. 3.1) sowie einer Faser im Zentrum der Anordnung. Ein vollständiges optisches Übertragungssystem besteht jedoch aus weit mehr als nur einer Lichtquelle, einer Glasfaser und einer Fotodiode (Abb. 3.23 a).
Abb. 3.23. a) Hauptkomponenten eines faseroptische Übertragungssystems b) Repeater
3.3 Optische Sender und Empfänger
151
Zur Ansteuerung der Laserdiode ist eine elektronische Treiberschaltung nötig, um ein geeignetes hochbitratiges elektrisches Signal zu erzeugen. Treiberschaltung und Lichtquelle bilden gemeinsam den optischen Sender.
Abb. 3.24. Prinzipielle Anordnung einer Treiberschaltung mit einer Differenzverstärkerstufe für schnelle Laserdioden
Für hochbitratige Übertragungssysteme kommen typischerweise Differenzverstärkerschaltungen zum Einsatz, die Bitraten bis weit über 10 Gbit/s ermöglichen. Die hohe Geschwindigkeit kommt daher, dass der Injektionsstrom, der über den Laser fließt, nicht ein- und ausgeschaltet, sondern nur zwischen zwei Zweigen hin- und hergeschaltet wird. Ebenso bilden Fotodiode (pin oder APD) und die erste elektronische Verstärkerstufe (front-end-amplifier) gemeinsam den optischen Empfänger (Abb. 3.23 a). Dieser Frontend-Verstärker besteht aus einer aufwändigen elektronischen Schaltung. Er muss in der Lage sein, eine hohe Bandbreite zu detektieren und das mit nur wenigen Photonen; denn durch die große Faserlänge kommt nur ein kleiner Lichtleistungsanteil am Empfänger an. Auch muss er mit einer Reihe von Rauscherzeugern kämpfen, die sowohl optisch als auch elektrisch verursacht werden. Häufig kommt dazu ein Transimpedanzverstärker zum Einsatz.
152
3 Optische Nachrichtenübertragung
Abb. 3.25. Prinzipschaltbild eines Transimpedanzverstärkers in einem optischen Empfänger, Ip Photostrom, RF Rückkoppelwiderstand, v Verstärkungsfaktor
Es handelt sich dabei um einen gegengekoppelten Verstärker (Abb. 3.25). Der Rückkopplungswiderstand wirkt am Verstärkereingang mit einem um den Verstärkungsfaktor erniedrigten Wert und bildet daher zusammen mit der Sperrschichtkapazität der Fotodiode eine kleine Zeitkonstante W = RC. Dieser Umstand ist zur Erzielung hoher Grenzfrequenzen günstig. Gleichzeitig ist sein physikalischer Widerstandswert groß, was zu einem niedrigen thermischen Rauschen führt und somit eine hohe Empfindlichkeit auch für sehr kleine optische Leistungen ermöglicht. Beispiel: Bei einem optischen Übertragungssystem wird der Halbleiterlaser ausgetauscht. Der neue Laser weist eine doppelt so hohe Lichtleistung auf wie der alte. Da gleichzeitig eine höhere Übertragungsrate gefordert wird, ist die geforderte Mindestleistung am Empfänger um die Hälfte gestiegen. Beide Änderungen haben Einfluss auf die Systemreserve, die beispielsweise für zusätzliche Spleiße (nichtlösbare Faserverbindungen) eingesetzt werden kann, falls auf der Strecke Faserbrüche entstehen oder Faserteilstücke ausgetauscht werden müssen. Wie viele zusätzliche Faserspleiße sind möglich, wenn man Spleißdämpfungen unter 0,2 dB annimmt?
Lösung: Die Verdopplung der Laserleistung entspricht nach Gl. (3.9) einer Steigerung von etwa 3 dB. Die notwendige Leistungserhöhung kann wie eine Zusatzdämpfung angesehen werden, sie beträgt ebenfalls nach Gl. (3.9) etwa 1,76 dB. Es ergibt sich somit eine positive Bilanz mit einem Gewinn von etwa 1,24 dB. Damit können 6 zusätzliche Spleiße eingebracht werden. Ƒ
3.4 Faseroptische Übertragungssysteme
153
3.4 Faseroptische Übertragungssysteme 3.4.1 Direktübertragungssysteme Ein optisches Übertragungssystem funktioniert nur im Zusammenwirken der oben beschriebenen Komponenten. Dabei müssen optische und elektrische Kenntnisse ineinander greifen. Abbildung 3.5 zeigte bereits eine Zusammenstellung der wichtigsten Komponenten für faseroptische Übertragungssysteme im spektralen Kontext: 1973 konnte eine Glasfaser hergestellt werden, die ein erstes Minimum von 5 dB/km bei einer Wellenlänge von etwa 850 nm aufwies. Aus diesem Grund wurden die ersten Übertragungssysteme im Bereich dieser Wellenlänge durchgeführt; der Bereich heißt deshalb auch erstes Fenster. 1981 erniedrigte sich die Dämpfung auf etwa 0,5 dB/km und 0,3 dB/km bei den Wellenlängen 1.300 nm und 1.550 nm. Die Bereiche um diese Wellenlängen, bei denen faseroptische Übertragungssysteme entwickelt wurden, nannte man dann zweites und drittes Fenster. Heutige Glasfasern erreichen ein absolutes Minimum von 0,176 dB/km, bedingt durch prinzipielle physikalische Effekte (wie oben beschrieben durch RayleighStreuung und IR-Eigenabsorption). Die erzielbaren praktischen Werte liegen sehr nahe beim theoretischen Minimum. Als opto-elektrische Wandler für Lichtquellen kommen für das erste Fenster GaAlAs-LEDs und -Laser zum Einsatz, InGaAsP-Bauelemente für das zweite und dritte Fenster. Als Materialien für die opto-elektrischen Wandler, die Fotodioden, wird das aus der Halbleitertechnik wohlbekannten Element Silicium (Si) für 850 nm verwendet, Germanium (Ge) sowie InGaAsP für den gesamten Wellenlängenbereich von 1200 nm bis über 1600 nm hinaus (Abschn. 1.5). Darüber hinaus scheinen Quecksilbercadmiumtellurid (HgCdTe)-Materialien vielversprechende Mischkristalle für künftige optische Detektoren zu sein. Mit einem derartigen Übertragungssystem bestehend aus Sender, Glasfaser und Empfänger (Abb. 3.23 a) kann dann je nach Bitrate eine bestimmte Strecke überbrückt werden. Wenn die gewünschte Streckenlänge jedoch nicht ausreicht, wird ein Repeater eingefügt (Abb. 3.23 b). Dieser besteht aus einem Frontend-Verstärker und einem Impulsregenerator, gefolgt von einer weiteren Treiberschaltung, die einen weiteren Laser ansteuert. Der Impulsregenerator ist notwendig, um das durch die Dispersionen verzerrte Datensignal wieder zu restaurieren. Abbildung 3.26 veranschaulicht die immensen Fähigkeiten der Datenregeneration: Direkt am Ausgang des Frontend-Verstärkers (1) kann weder das Augendiagramm noch das Datensignal als solches erkannt werden.
154
3 Optische Nachrichtenübertragung
Abb. 3.26. Augendiagramm (a) und Datensignal (b)
Beim Augendiagramm werden viele aufeinanderfolgende Bitfolgen bestimmter Länge mit Hilfe eines Speicheroszilloskops übereinander geschrieben; d.h. an vielen Stellen fällt eine logische Eins auf eine logische Null und umgekehrt. Für eine ideales Signal erhielte man für ein Bit ein Rechteck mit der Signalamplitude als Höhe und der Bitperiode als Breite; für die gesamte Bitfolge entstünde ein Bild vergleichbar einem idealen rechteckigen Gartenzaun. Verschlechtert sich das Signal, so werden die senkrechten und waagrechten Begrenzungen immer mehr verrauscht. Es entsteht ein Auge, das sich mit zunehmender Signalverschlechterung immer mehr schließt (Abb. 3.26 (1)). Nach einer ersten nachfolgenden Entzerrerschaltung können das Augendiagramm und das Datensignal gerade noch erahnt werden (2); dagegen sind beide bereits gut restauriert erkennbar nach der zweiten Entzerrerstufe (3). Das non-return-to-zero Signal mit 168 Mbit/s kann deutlich erkannt werden. Zum Schluss folgt noch ein Tiefpassfilter, um hochfrequente Rauschkomponenten zu unterdrücken (4). An dieser Stelle muss bemerkt werden, dass ein optisches Übertragungssystem aus weit mehr schaltungstechnischen Komponenten besteht: Es sind zusätzliche elektronische Schaltungen notwendig, beispielsweise zur Kodierung, zum Verwürfeln der Bits (scrambling), zur Fehlerkorrektur, zur Taktregenration sowie zur Temperatur-, Powerlevel- und Verstärkungsregelung.
3.4 Faseroptische Übertragungssysteme
155
Abb. 3.27. Systemkonfigurationen faseroptischer Übertragung
Bisher wurden als Systemkonfiguration nur unidirektionale Systeme betrachtet (Abb. 3.27), d.h. ein Verhalten wie bei einer Telefonverbindung: Es kann nur eine Person reden und die am anderen Ende lediglich zuhören. Das System arbeitet nur in eine Richtung und nicht umgekehrt, man spricht von einem unidirektionalen System. Um diese unbefriedigende Situation zu überwinden, werden an beiden Enden der Faserstrecke optische Koppler eingefügt. Damit erhalten wir ein bidirektionales System. Die beiden in entgegengesetzter Richtung die Faser durchlaufenden Lichtwellen überlagern sich ungestört, werden an den Kopplern auf der anderen Seite wieder getrennt und erreichen ihre zugehörigen Empfänger. Um die Übertragungskapazität drastisch zu verbessern, werden an den Enden wellenlängenselektive Koppler eingefügt, sogenannte Multiplexer bzw. Demultiplexer. Eine Vielzahl von Laserdioden, die verschiedene Wellenlängen emittieren, kommen als Sender zum Einsatz. Ihre Lichtwellen vereinigen sich am Multiplexer und trennen sich am anderen Ende der Glasfaserstrecke wieder mit Hilfe des Demultiplexers. Ein derartiger Aufbau heißt Wellenlängenmultiplexsystem (Wavelength Division Multiplex, WDM). Nimmt man diese Anordnung wiederum in zwei entgegengesetzten Richtungen vor, so erhält man ein bidirektionales WDM-System (Abb. 3.27). Die Übertragungskapazität wird damit um die Anzahl N der Kanäle, die über eine einzelne Faser übertragen werden, gesteigert. Bei engem Kanalabstand spricht man von einem DWDM-System (Dense WDM).
156
3 Optische Nachrichtenübertragung
Abb. 3.28. Systembegrenzungen optischer Übertragungssysteme
Abbildung 3.28 zeigt eine schematische Darstellung zu Beschreibung der Grenzen optischer faseroptischer Übertragungssysteme. Für ein einkanaliges optisches System sind vor allem zwei limitierende Mechanismen verantwortlich. Derartige Systeme heißen Direktübertragungssysteme bestehend aus einem Sender, einer Faser und einem Empfänger. Die Limitierungen werden in zwei Gruppen eingeteilt, Dämpfungsbegrenzungen und Dispersionsbegrenzungen. Der dämpfungsbegrenzte Zweig wird zunächst einmal bestimmt von der absoluten optischen Leistung, die der Sendelaser emittiert, darüber hinaus von der Faserdämpfung und schließlich von der Empfängerempfindlichkeit des Detektors. Der dispersionsbegrenzte Zweig wird wiederum zunächst durch die Eigenschaften der Laserdiode bestimmt, nämlich durch ihre Modulationsbandbreite bzw. Grenzfrequenz. Außerdem beeinträchtigen die Dispersionen der eingesetzten Glasfaser sowie die Demodulationsbandbreite bzw. die Grenzfrequenz des Empfängers das Ergebnis. Somit kommen für hochbitratige Weitverkehrssysteme ausschließlich sehr schnelle Laserdioden verbunden mit hochfrequenten Treibern zum Einsatz sowie sehr schnelle pin-Fotodioden oder APDs, verbunden mit sehr empfindlichen, rauscharmen und hochfrequenten Empfängern. Will man Spitzenwerte erzielen, so kommt als Glasfaser nur eine Monomodefaser mit dem günstigsten Dispersionsverhalten in Frage. Abbildung 3.29 zeigt das Augendiagramm eines 43 Gbit/s Datensignals übertragen von einem hochbitratigen einkanaligen System. Die Datenrate korrespondiert mit der Grenzfrequenz von 30 GHz, näherungsweise die höchste Frequenz mit der ein einzelner Halbleiterlaser sinnvoll moduliert werden kann. Verbunden mit der Modulation der Lichtleistung ist zusätzlich eine Modulation der Frequenz (Chirp, Abschn. 1.5.3.3). Dies führt zu einem Anstieg der
3.4 Faseroptische Übertragungssysteme
157
chromatischen Dispersion und damit zu einer Reduzierung der Übertragungskapazität. Höherfrequente Sender erzielt man durch Nachschalten externer Modulatoren. Letztere können auch bereits auf dem Laserchip integriert werden. Einzelne Empfänger mit schnellen Fotodioden erreichen bereits über 80 Gbit/s.
5 ps/div
t
Abb. 3.29. Augendiagramm eines hochbitratigen Übertragungssystems
3.4.2 Kohärente Übertragungssysteme Um die Grenzen klassischer Direktübertragungssysteme zu überwinden, wurden neue Techniken entwickelt. Dazu gehört die kohärente faseroptische Nachrichtenübertragung, auch optischer Überlagerungsempfang genannt (Abb. 3.30).
Abb. 3.30. Prinzipieller Aufbau eines kohärent optischen Übertragungssystems
158
3 Optische Nachrichtenübertragung
Dabei kommt neben dem Sendelaser ein weiterer Laser zum Einsatz. Dieser so genannte lokale Oszillator befindet sich am Empfängerort. Mit Hilfe eines faseroptischen Kopplers erfolgt eine Überlagerung des durch die lange Faserstrecke stark geschwächten Sendesignals PS und dem praktisch ungeschwächten Licht des Lokallasers, der an einem nur wenige Meter langen Faserschwanz angekoppelt ist. Die beiden Lichtwellen interferieren miteinander (Abschn. 1.2.3.1.). In Gl. (1.64) haben die beiden Wellen die gleiche Frequenz. Verwendet man dagegen zwei verschiedene Lichtquellen, so erhält man am Detektor folgendes zeitabhängige Signal (Leistung und Intensität sind zueinander proportional):
P (t )
PS (t ) PL 2 PS (t ) PL cos>2S fS f L t IS I L @ .
(3.17)
Hierbei sind jeweils P die Leistungen, f die Frequenzen und I die Phasen der Lichtwellen von Sendelaser bzw. lokalem Oszillator. Schreibt man die Gleichung um, so kann man einen Verstärkungsfaktor M definieren:
P (t )
PS (t ) PL M PS (t ) cos>2S fS f L t IS IL @ .
(3.18)
Mit
M
2
PL !! 1 . PS
(3.19)
Man erkennt also, dass die Leistung des durch die Übertragungsstrecke gedämpften Sendesignals um den Faktor M verstärkt wird. Gegenüber der optischen Direktübertragung kann man somit längere Faserstrecken überbrücken bzw. bei gleicher Streckenlänge eine höhere Datenrate übertragen. Ein weiterer Vorteil ist, dass im Gegensatz zur Direktübertragung außer der Möglichkeit, die Leistung des Sendelasers zu modulieren, nun auch Frequenz und Phase als Modulationsgröße herangezogen werden können. Damit verbunden ist auch die Möglichkeit, auf der Sendeseite nicht nur einen einzigen Laser, sondern eine Vielzahl von Lasern mit unterschiedlichen Frequenzen zu implementieren (Abb. 3.31). Da der Lokaloszillator in der Frequenz durchstimmbar ist (Abschn. 1.5), lässt sich passend zu jedem Sendelaser eine Zwischenfrequenz, ZF fS f L einstellen, die genau mit der Mittenfrequenz eines dem Detektor nachfolgenden Bandpassfilters übereinstimmt. Das System stellt eine Analogie zum Überlagerungsempfang in der Rundfunktechnik dar. Die einzelnen Kanäle können im Vergleich zur WDM-Technik sehr viel enger benachbart werden. Dies führt zu einer erheblichen Steigerung der Übertragungskapazität
3.4 Faseroptische Übertragungssysteme
159
Abb. 3.31. Frequenzmultiplex mit durchstimmbarem Empfänger
Beispiel: Durch Ergänzung eines Übertragungssystems bestehend aus Laser, Faser und Detektor durch einen Lokallaser beim Empfänger kann eine Direktübertragung in eine kohärente Übertragung umgewandelt werden (Abb. 3.30). Damit lässt sich die Übertragungskapazität steigern. Welche physikalischen Parameter einer elektromagnetischen Welle können dabei für die Modulation vor bzw. nach der Umwandlung herangezogen werden? Wie wirkt sich die Leistung des Lokallasers (PL = 1 mW) auf die Faserlänge dabei quantitativ aus, wenn die am Faserende ankommende Lichtleistung gerade PS = 1 nW und die Dämpfung der Glasfaser 0,2 dB/km beträgt?
Lösung: Vor der Umwandlung kann nur die optische Leistung (Intensität) herangezogen werden, da die Information über Frequenz und Phase bei der Beobachtung mit einer Fotodiode verschwindet, wenn man nur eine einzige Lichtwelle, diejenige vom Sende-Oszillator hat (Gl. (1.52) und Gl. (1.53)). Durch Interferenz mit einer zweiten Welle vom Lokal-Oszillator kommt es zur Interferenz und man gewinnt die Information über Frequenz und Phase zurück (Gl. 3.17) Quantitativ folgt mit Gl. (3.19) ein Verstärkungsfaktor M = 2000 entsprechend 33 dB. Bei einer Faserdämpfung von 0,2 dB/km kann somit die Streckenlänge um 165 km verlängert werden. Ƒ
160
3 Optische Nachrichtenübertragung
3.4.3 Faserverstärker Eine weitere Möglichkeit zur Verstärkung ist der Einsatz von Glasfasern, die mit laseraktiven Medien dotiert sind. Dabei wird eine Glasfaser mit Erbium, einem Seltene-Erden-Material, dotiert. In Abb. 3.32 sind die wichtigsten Komponenten eines Erbium-dotierten Faserverstärkers dargestellt.
Abb. 3.32. Prinzipieller Aufbau eines Erbium-dotierten Glasfaserverstärkers
Die Schlüsselkomponente ist eine einige Meter lange Einmodenfaser, 3+ deren Kern mit einer Konzentration von etwa 100 ppm mit Erbium (Er ) dotiert ist. Das zugehörige Energieniveau-Diagramm zeigt Abb. 3.33.
Abb. 3.33. Energieniveau-Schema von Erbium
3.4 Faseroptische Übertragungssysteme
161
Erbium absorbiert Licht bei mehreren Wellenlängen; insbesondere liegt bei 980 nm eine günstige Pumpwellenlänge. Das Pumplicht wird mit Hilfe von wellenlängenselektiven Kopplern in die Erbium-dotierte Glasfaser eingekoppelt. Dies kann sowohl in Vorwärts- als auch in Rückwärtsrichtung geschehen. Kommt nun Signallicht mit einer Wellenlänge von etwa 1,5 µm über den Koppler in der Erbium-dotierten Faser an, so erfolgt wie beim Laser (Abschn. 1.5) eine stimulierte Emission. Es werden eine Vielzahl von Elektronenübergängen ausgelöst, die das Signallicht verstärken. Aus einem schwachen Eingangssignal wird ein starkes Ausgangssignal. Maximale Verstärkungen bis zu 46 dB können erreicht werden. Neuere Arbeiten zielen darauf hin, auch den Bereich bis etwa 1.630 nm mit zu erfassen (L-Band). Die Glasfaser weist dort immer noch eine ausreichend niedrige Dämpfung auf. Dies ist insbesondere interessant, um Wellenlängenmultiplex (WDM, Abschn. 3.4.1) über einen noch größeren Wellenlängenbereich zu realisieren und damit die Kanalzahl zu steigern. Nach dem Durchbruch des faseroptischen Verstärkers beim Einsatz in praktischen Systemen ist damit eines der beiden Fundamentalprobleme optischer Signalübertragung, die Dämpfungsproblematik, weitestgehend gelöst. Neuere Entwicklungen nutzen parallel zum Erbiumverstärker die Übertragungsfaser selbst als Verstärkungsmedium. Dazu wird der faseroptische Ramaneffekt, der ursprünglich wegen Limitierungen in Glasfasersystem diskutiert wurde, wieder eingesetzt. Es kommt zu einer nichtlinearen Streuung an Molekülschwingungen (Phononen). Das gestreute Licht ist frequenzverschoben um den Betrag der Differenz zwischen Pumpfrequenz und der Frequenz der Molekülschwingungen von SiO2. Man spricht von einem Stokesfeld bzw. von Stokeslinien. Das Stokesfeld mischt sich mit dem Feld des optischen Datensignals; es kommt zur stimulierten Ramanstreuung und damit zu einer optischen Verstärkung.
Abb. 3.34. Raman-Pumpen und Verstärkungsspektrum
162
3 Optische Nachrichtenübertragung
Abbildung 3.34 zeigt die bei 1.420 nm bis 1.500 nm liegenden Pumpwellenlängen. Dadurch ergeben sich Verstärkungen bei etwa um 100 nm nach oben verschobenen Wellenlängen, die für Übertragungen im C-Band (1.530 nm bis 1.560 nm) und im L-Band geeignet sind. Der Ramanverstärker arbeitet in Rückwärtsrichtung und vermeidet damit verstärkerbedingte Rauschprobleme am Empfänger (Abb. 3.35). Die Verstärkung liegt bei etwa 10 dB.
Abb. 3.35. Raman-Faserverstärker
Beispiel: Durch den Einsatz eines Erbiumverstärker kann man etwa 40 dB gewinnen. Nimmt man eine typische Faser mit einer Dämpfung von 0,2 dB/km an, so erhält man eine Erhöhung der Übertragungslänge bis zu 200 km. Bei einer Hintereinanderschaltung von Raman- und Erbiumverstärker kommen weitere 10 dB hinzu; damit ergibt sich eine zusätzliche Übertragungslänge durch beide Verstärker um insgesamt 250 km.
3.4.4 Solitonenübertragung Bei einer Einmodenfaser verbleibt der Effekt der chromatischen Dispersion. Dies führt dazu, dass verschiedene Spektralanteile eines optischen Impulses sich unterschiedlich schnell in einer Glasfaser ausbreiten, es kommt zur Impulsverbreiterung (Abschn. 3.2.2). Steigert man durch geeignete Maßnahmen die Geschwindigkeit der langsameren Impulsanteile und verringert sie für die schnelleren, so erhält man eine Kompensation des Dispersionseffekts. Man spricht von einer Solitonenübertragung; dazu wird der nichtlineare Effekt der Selbstphasenmodulation herangezogen.
3.4 Faseroptische Übertragungssysteme
163
Das Prinzip der Solitonenausbreitung soll im folgenden nur näherungsweise beschrieben werden: Wegen des Kerreffekts erhält man für die Brechzahl n in der Faser in Abhängigkeit von der optischen Leistung P:
n( P )
n0 n2 ( P)
(3.20)
Dabei ist n0 die Brechzahl ohne Kerreffekt unabhängig von der optischen Leistung in der Glasfaser und n2 die Brechzahländerung durch den Kerreffekt abhängig von der optischen Leistung in der Glasfaser. Durch eine zeitabhängige Leistungsänderung P(t) kommt es zu einer entsprechenden Brechzahländerung. Damit erfährt die durch die Faser transmittierte elektromagnetische Welle eine zeitabhängige Phasenänderung M(t), die oberhalb einer bestimmten Schwelle näherungsweise proportional zur Leistungsänderung P(t) ist. Die Phasenänderung der elektromagnetischen Welle wurde also durch sie selbst hervorgerufen; man spricht deshalb von Selbstphasenmodulation. Eine zeitliche Änderung der Phase M kr Z t hat eine Frequenzänderung zu Folge:
Z (t )
dM dP ~ . dt dt
(3.21)
Eine Veranschaulichung der Zusammenhänge ist in Abb. 3.36 dargestellt: Der Effekt kommt nur bei hohen Leistungen zum Tragen. Er stellt sich erst ab einer bestimmten Schwellenleistung Ps ein. Somit ändert sich die Frequenz der Welle während der Impulsentwicklung von kleinen zu
Abb. 3.36. Leistungsentwicklung und Frequenzverschiebung eines Impulses in Glasfasern
164
3 Optische Nachrichtenübertragung
Abb. 3.37. Ausbreitung von Solitonen in Glasfasern
großen und damit die Wellenlänge von großen zu kleinen Werten. Anschaulich gesprochen ist der Kopf des Impulses rot und das Impulsende blau (Abb. 3.37). Die roten Impulsanteile erreichen zuerst das Faserende. Sollen alle Impulsanteile gleichzeitig ankommen, müssen die blauen aufholen. Dies erreicht man durch Erniedrigung der Gruppengeschwindigkeit vg der roten Anteile bzw. durch Erhöhung derjenigen der blauen. c und ng ng (O ) erhält man somit eine Impulskompression, Mit vg ng falls die Arbeitswellenlänge sich rechts von der Dispersionsnullstelle (strichpunktierte Linie in Abb. 3.37) befindet. Bei exakter Dimensionierung heben sich die Effekte, bedingt durch die chromatische Dispersion und durch die Selbstphasenmodulation, gerade auf. Es kommt zu einem durch die Faser laufenden Impuls, dessen Breite unverändert bleibt; diesen nennt man Soliton. Liegt man jedoch auf der falschen Seite der Dispersionsnullstelle, kommt es zu einer zusätzlichen Erhöhung der Impulsverbreiterung. Eine anschauliche Deutung liefert der Vergleich mit einer Gruppe von Rennläufern mit starken Leistungsunterschieden, die auf weichem Untergrund ihren Wettbewerb ausführen (Abb. 3.38).
3.4 Faseroptische Übertragungssysteme
165
Abb. 3.38. Vergleich von Rennläufern mit der Ausbreitung von Solitonen in Glasfasern (Udem et al. 2002)
Da der Boden, auf dem die Rennläufer unterwegs sind, beim Laufen nachgibt, muss der vordere (stärkere) Läufer immer den Berg hinauf laufen, während der hintere (schwächere) Läufer es leichter hat und den Berg hinab laufen kann. Dadurch werden die Leistungsunterschiede ausgeglichen; die Läufergruppe bleibt zusammen, es kommt nicht zu einem Auseinanderdriften der Gruppe; die Gestalt der Gruppe (Impulsbreite) bleibt unverändert. Für die Realisierung praktischer Systeme ist vor allem die Abstimmung der absoluten Leistung in der Auswirkung auf die Höhe des Effekts problematisch. Wegen der sich ändernden Leistung, bedingt beispielsweise durch die Faserdämpfung, sind besondere regelungstechnische Maßnahmen erforderlich. Dies verhinderte daher lange Zeit einen großtechnischen Einsatz der neuen Systeme. Mittlerweile ist der technische Durchbruch gelungen. Es gibt bereits die ersten Produkte, die mit Solitonentechnik arbeiten. 3.4.5 Optische Übertragung auf der Fernebene im Ortsnetz und im LAN- bzw. Metrobereich Das Hauptziel einer faseroptischen Übertragung ist zunächst die Realisierung von Punkt-zu-Punkt-Systemen mit hoher Kapazität. Dabei werden gleichzeitig hohe Bitraten, viele optische Kanäle sowie lange Übertragungsstrecken gefordert. Unter Verwendung der oben beschriebenen Techniken, Systeme mit Zeitmultiplex (TDM), Wellenlängenmultiplex (WDM), sowie der optischen Verstärker (Erbium, Raman) und unter weitest gehender Unterdrückung der Dispersionseffekte (vor allem chromatische Dispersion und PMD) kommt man zu Systembegrenzungen, die aber bereits bei sehr hohen Übertragungskapazitäten liegen. Rekordergebnisse liegen bei 15 einem Bitraten-Längen-Produkt von 36 (Pbit/s) km (1Pbit = 10 bit). Dabei kamen 149 DWDM-Kanäle mit einer Datenrate von 40 Gbit/s pro Kanal zum Einsatz, als Glasfaser diente eine einzelne 6.120 km lange dispersionskompensierte Faser. Höchstwerte der Datenrate betragen bereits
166
3 Optische Nachrichtenübertragung
160 Gbit/s pro Kanal. Dabei kam ein TDM-System über eine 1.200 km lange Standardeinmodenfaser zum Einsatz. Seit etwa zwanzig Jahren spricht man von Fiber-to-the-home (FTTH), also von den Anstrengungen, die faseroptische Übertragung auch ins Einfamilienhaus zu bringen. Hohe Kosten sind dafür verantwortlich, dass dies bisher nicht geschah. Jedoch steigt durch zunehmende Nutzung des Internets der Bedarf an höheren Datenraten auch im Einfamilienhaus. Trotzdem ist es um einen entsprechenden Durchbruch zu ermöglichen dringend erforderlich, die Kosten für den Teilnehmer deutlich zu senken. Das Schlagwort heißt „Erschließung der letzten Meile bis zum Teilnehmer“. Erste Anzeichen dafür, dass es in absehbarer Zukunft doch noch zum Durchbruch kommt, zeigen sich in Japan; dort werden zur Zeit 50.000 bis 70.000 neue Anschlüsse/Monat installiert. Und dies nicht nur in Hochhauslandschaften bei vorhandener Infrastruktur, sondern auch auf dem flachen Land, begünstigt durch niedrigere Standards bei der Kabelverlegung im Vergleich zu Westeuropa. Die Weiterentwicklungen der Komponenten könnte ebenfalls den realen Einsatz on FTTH beschleunigen: Es wurden Plastikfasern entwickelt (Plastic Optical Fiber, POF), die im Gegensatz zu den bisherigen PMMAFasern (polymerisiertes Methylmethacrylat) eine wesentlich niedrigere Dämpfung in dem interessierenden Wellenlängenbereich haben. Ein vielversprechendes Material scheint ein Kunststoff zu sein, der unter dem Handelsnamen Cytop (cyclic transparent polymer) von Ashai Glass entwickelt wird. Erwartete Dämpfungswerte liegen künftig bei 850 nm unter 10 dB/km und bei wenigen dB/km bei 1.300 nm und 1.550 nm. Diese Werte liegen zwar im Vergleich zur Glasfaser deutlich höher, da der Einsatz von Plastikfasern aber nur im 100 m-Bereich vorgesehen ist, können sie toleriert werden. Entscheidend ist jedoch die Kompatibilität zu den Wellenlängenbereichen bei denen Glasfasern eingesetzt werden. Bei den kurzen Faserstrecken bekommt man darüber hinaus auch noch die Modendispersion ausreichend in den Griff; es werden bereits schon Kunststofffasern mit Gradientenprofil hergestellt: Perfluorinated GradedIndex Plastic Optical Fibers (PFGI-POF). Neuere Untersuchungen bestätigen eine Übertragung von 5 GHz über eine Strecke von 500 m. Mithilfe von Plastikfasern werden auch optische Bussysteme im Automobil für Infotainment-Applikationen entwickelt: MOST (Media Oriented Systems Transport). Im sicherheitsrelevanten Bereich (Sensorik und Aktorik) ist dies bisher noch nicht der Fall, wird aber für künftige Entwicklungen angedacht. In diesem Zusammenhang erlebt die PCS-Faser (Abschn. 3.2.3) eine Renaissance. Ein weiterer Schritt ist die Entwicklung von schnell modulierbaren LEDs als kostengünstige Alternative zum Einsatz von Halbleiterlasern; die erreichten Grenzfrequenzen für GaAs-LEDs liegen bereits im GHz-Bereich.
3.4 Faseroptische Übertragungssysteme
167
Als Alternative zu kabelgebunden Systemen kann bei Entfernungen im 100 m-Bereich auch die tot gesagte Freiraumübertragung wieder zum Leben erweckt werden. Dazu wird das aus einer Faser austretende Licht mit einer Optik aufgeweitet und am Empfangsort erneut in eine Faser eingekoppelt oder direkt einem Detektor zu geführt. Diese Verbindung aus faseroptischer und Freiraumübertragung kann insbesondere in Bereichen eingesetzt werden, bei denen man nachträglich einerseits nur sehr schwer Kabel verlegen kann, andererseits Freiraumübertragung gerade besonders einfach zu implementieren ist, Dies ist beispielsweise auf den Dächern einer bestehende Hochhauslandschaft der Fall. Dabei können Probleme wie Regen, Schnee, Nebel, Wolken, Rauch und Staubemissionen bis zu einem gewissen Grad bei den kurzen Entfernungen toleriert werden. Geringe Störungen können durch Fehlerkorrektur noch ausgeglichen werden; fatale Auswirkungen gibt es allerdings beispielsweise im Einsatzbereich von Hubschraubern. Zusätzlich zu klassischen Punkt-zu-Punkt-Verbindungen wird seit einigen Jahren auch die Einrichtung von Netzwerken diskutiert. Im Nahbereich für kurze Entfernungen, z.B. innerhalb einer Firma spricht man von LANs (Local Area Networks), im Ortsnetz oder Metrobereich von MANs (Metropolitan Area Networks). Die Strukturen der Netze können sowohl als Stern, Ring oder Bus (Ethernet) ausgeführt werden (Abb. 3.39).
Abb. 3.39. Topologien für LAN und MAN
Auch verschachtelte Strukturen sind geplant; verschiedene Ringe können sich tangential berühren oder zu Maschennetzen erweitert werden (Abb. 3.40). Seit der Abschaffung des Postmonopols im Telekommunikationsbereich ist es auch möglich private mit öffentlichen Netzen zu kombinieren.
168
3 Optische Nachrichtenübertragung
Abb. 3.40. Optische Netze für den LAN- und MAN-Bereich sowie die Fernebene
Dabei kommen sowohl elektrische als auch faseroptische Systeme zum Einsatz (Fiber Distributed Data Interface, FDDI). FDDI beispielsweise ist ein Hochgeschwindigkeits-Doppelfaserring mit mehr als 1.000 Teilnehmern auf einer Länge von etwa 200 km mit Datenraten im 100 Mbit/sBereich. Für hochbitratige Netzwerke kommen ausschließlich faseroptische Systeme zum Einsatz. Bei der ringförmigen Struktur befindet sich dann bei jedem Teilnehmer ein hochbitratiger Sender und Empfänger. Bei der Stern- und der Bus-Struktur kann sich auch nur ein Empfänger befinden, um den Datenstrom in Richtung Teilnehmer (abwärts) zu übernehmen. Der aufwärtige (rückwärtige) Datenstrom entfällt in diesem Fall oder es kommt nur ein schmalbandiger Rückkanal zum Einsatz, beispielsweise um bei TV-Verteilsystemen die Kanäle auszuwählen. Für den Betrieb der Netzwerke sind auch optische Knoten notwendig; dabei wird häufig mit WDM oder DWDM-Systemen gearbeitet. Die Zugangseinrichtungen zur Trennung bzw. Verbindung optischer Kanäle der
3.4 Faseroptische Übertragungssysteme
169
Abb. 3.41. Optischer Knoten im Netz OADM: Optical Add/Drop Multiplexer
einzelnen Teilnehmer erfolgen mit Hilfe von optischen Multiplexern bzw. Demultiplexern: OADM (Optical Add/Drop Multiplexer, Abb. 3.41). Dies sind optische Viertoreinrichtungen mit N wellenlängenselektiven Kanälen im Netzwerk (Eingangs- und. Ausgangstor (1) und (4)) und einer variablen Anzahl < N im Abzweig- bzw. Zugangstor (3) und (4). Durch optische Koppler wird jeweils ein kleiner Leistungsanteil zu Kontrollzwecken ausgekoppelt (Monitor). Bei zukünftigen MANs wird die gewünschte Kanalanzahl größer als 100 sein und dies bei einer Bitrate für jeden Kanal bis in den Gbit/sBereich hinein. Dabei sind dann für die Knoten auch optische Schaltmatritzen notwendig. Geplant ist bis zu 1.000 mal 1.000 Fasern wahlweise miteinander zu verbinden (Abb. 3.42).
Abb. 3.42. Optisches Matrixschaltmodul für Glasfasern
170
3 Optische Nachrichtenübertragung
Die einzelnen Schaltelemente bestehen aus Mikrospiegeln mit Durchmessern von etwa 0,5 µm, man erhält ein mikro-opto-elektro-mechanisches System (MOEMS). Aufgrund der mechanischen Spiegelstrukturen liegen die Schaltzeiten im ms-Bereich. Schnelle Schaltzeiten bis in den ns-Bereich erzielt man durch optische Hybrid-Schaltmodule. Abbildung 3.43 zeigt einen integriert-optischen 1:8-Kopppler auf einem Silicium-Substrat, bei dem mit Hilfe eines InP Gate Arrays das eingehende Licht auf das gewünschte Ausgangstor geschaltet wird. Durch entsprechende Kaskadierung können bereits schnelle Schalter mit bis zu 64 u 64 Ports realisiert werden.
Abb. 3.43. Optisches Hybrid-Schaltmodul, InP auf SiO2 Planar Lightwave Circuit (PLC)
Auch im MAN-Bereich wird über Freiraumübertragung nachgedacht. Punkt-zu-Punkt-Komponenten können auch im Distributionsbereich verwendet werden. Sender mit divergenter Abstrahlung können eingesetzt werden als Zentraleinheiten, die eine große Anzahl von Empfangspunkten ansprechen. Folge der Divergenz ist jedoch, dass mit zunehmender Entfernung nur noch eine geringe optische Leistung vorhanden ist. Als Alternative dazu wird ein Maschennetzwerk angedacht unter Einsatz von vielen Sendern und Empfängern (WOMAN: Wireless Optical MAN). Eine besondere Renaissance erfährt die Freiraumübertragung darüber hinaus im Weltraum, da außerhalb der Erdatmosphäre die klassischen Probleme wie die natürlichen Beeinträchtigungen durch Niederschläge oder die künstlich verursachten Verunreinigungen praktisch nicht existieren. Laser–Freiraumverbindungen zwischen Satelliten sind daher bereits erfolgreich im Einsatz. Man verwendet einen 847 nm Halbleiterlaser, dessen Licht mit einer Lawinenfotodiode im Direktempfang ausgewertet wird (Silex). Zur Empfindlichkeitssteigerung werden künftig auch kohärente Verfahren entwickelt (Abschn. 3.4.2). Die Entfernungen zwischen Sender und Empfänger liegen dabei in der Größenordnung von 10.000 km. Weitere Entwicklungen nutzen die Kombination faseroptischer und elektrischer Systeme. Aus Wirtschaftlichkeitsgründen kombiniert man relativ kurze Kupfer-Koax-Teilnehmeranschlüsse mit Lichtwellenleitern und kommt zu einem HFC-System (Hybrid Fiber Coax).
3.4 Faseroptische Übertragungssysteme
171
Abb. 3.44. Faseroptisches Breitbandnetz in Kombination mit mm-Wellentechnik
Als mögliche Alternative werden für den Ortsnetzbereich Kombinationen von faseroptischen mit Millimeter-Wellen- oder Koaxialkabelsystemen entwickelt (Abb. 3.44). Dazu findet im Sender eine Überlagerung zweier Lichtwellen statt, die von schmalbandigen Halbleiterlasern ausgehen. Die beiden Laser unterscheiden sich in ihrer Frequenz gerade um einige 10 GHz. Es kommt zu einer Zwischenfrequenz (ZF, Abschn. 3.4.2), die gerade im Bereich von mm-Wellen liegt. Einer der beiden Laser wird mit dem Datensignal moduliert. Die so überlagerten Lichtwellen überträgt man mit Hilfe der Glasfasertechnik bis zur letzten Meile. Dort sitzt ein Empfänger, der die dabei auftretende modulierte ZF, beispielsweise von 30 GHz vom optischen in den elektrischen Bereich umwandelt. Dieses Signal wird einem mmWellensender zugeführt, mit dessen Hilfe man dann die letzte Meile bis zum Teilnehmer im Einfamilienhaus überbrückt; dort sitzt ein zugehöriger mm-Wellenempfänger. Eine ganz neue Entwicklung, das UTelNet®, Universalnetz für Kommunikation, Ortung und Navigation, verbindet bereits vorhandene optische Übertragungssysteme (sowie elektrische) Systeme mit einem Funknetz. Die Kombination aus Leitung und Funkstrecke, die flexible Anschlussleitung (Flexible Access Line, FAL), ist das im Universalnetz UTelNet für alle mobile und stationäre Endgeräte verwendete Anschlussprinzip. Eine FAL entsteht durch Hintereinanderschaltung einer in der Regel bereits vorhandenen Leitung und einer Funkstrecke. Die Umsetzung der Übertragungssignale beider Übertragungsrichtungen erfolgt durch den Funkumsetzer Baustein LRC (Line Radio Converter), ein Kunden-IC, der als kostengünstiges Massenprodukt hergestellt werden kann. Abbildung 3.45 zeigt beispielhaft den Ersatz des elektrischen Kabels (Apparatschnur a) zwischen dem Endgerät (Terminal Equipment TE) und der Telekommunikationsanschlusseinheit (TAE) durch Funk.
172
3 Optische Nachrichtenübertragung
Abb. 3.45. Verbindungen zwischen Endgerät TE, Telekommunikationsanschlusseinheit TAE und der Vermittlungsstelle LT (Line Termination)
Bei unveränderter Nutzung von TE und TAE kann der LRC-Chip in einen Adapter eingebaut werden (b). Langfristig wird letzterer jedoch direkt in neue Endgeräte bzw. in die TAE eingebaut (c). Obwohl der LRC ausschließlich übertragungstechnische Funktion hat, wird durch das FALPrinzip eine optimale Ausnutzung und ein flexibler Einsatz jeder einzelnen Anschlussleitung erreicht, weil nicht mehr nur ein bestimmtes Endgerät TE angeschlossen ist, vielmehr jedes beliebige TE erreicht werden kann, das sich innerhalb der Funkreichweite befindet. Für den LRC genügt als Energieversorgung die über jede Fernsprech-Anschlussleitung angebotene Gleichstrom-Speisung. Beim heutigen Stand der digitalen Signalverarbeitung ist es kein Problem, den Chip so zu konzipieren, dass wichtige Kenngrößen der Funkstrecke (z. B. Bandmittenfrequenz, Sendeleistung) ferngesteuert über die Leitung einstellbar sind. Das UTelNet eignet sich nicht nur für Besitzer von Leitungen (Telekom, EVUs, Bahn) und für Mobilnetze (GSM), sondern z.B auch im Straßenverkehr zur Ortung und Navigation, Mauterfassung und Geschwindigkeitsüberwachung. Im Vergleich zum klassischen Mobilfunk (GMS, UMTS) legen die elektromagnetischen Wellen den größten Teil ihres Weges in Leitungen zurück. Damit reduziert sich der Abstand zwischen Basisstation (BS) und dem Endgerät (Empfänger), was sich quadratisch auf die erforderliche Leistung auswirkt (Abb. 3.46). Um die gleiche Leistung am Empfänger (PR) zu erhalten, benötigt man eine um mehr als eine Größenordnung kleinere Sendeleistung (PLRC). Damit ergeben sich deutlich geringere EMV-Probleme.
3.5 Literatur
173
Abb 3.46. Notwendige Signalleistungen um eine Empfangsleistung zu erhalten
3.5 Literatur Bludau W (1998) Lichtwellenleiter in Sensorik und optischer Nachrichtentechnik. Springer, Berlin Heidelberg New York Herter E, Lörcher W (2004) Nachrichtentechnik. Carl Hanser, München Wien Schwander T (2004) LCTSX: First On-Orbit Coherent Optical Link. ICSO‘2004, Toulouse, France, March 2004, Session 34 Optical Instruments for other Applications Strobel O (2002) Lichtwellenleiter- Übertragungs- und Sensortechnik. VDE, Berlin Offenbach Udem T et al. (2002) Uhrenvergleich auf der Femtosekundenskala. Physik Journal 1 Nr. 2: 3945 Veith G (1990) Physical Limitations and Advanced Technologies of High Speed Fiber Optic Transmission Systems. Laser u. Optoelektr. 22: 63 Voges E, Petermann K (2002) Optische Kommunikationstechnik. Springer, Berlin Heidelberg New York Zeeb E (2001) Optical Data Bus Systems in Cars: Current Status and Future Challenges. ECOC 2001, Amsterdam: 7071
4 Sensoren
4.1 Optische Sensoren Optische Sensoren senden Licht aus, das an einem zu untersuchenden Objekt reflektiert oder gestreut und vom Sensor wieder empfangen wird. Auf diese Weise kann beispielsweise ein Objekt erkannt (Präsenzdetektion) oder der Abstand zu einem Objekt bestimmt werden. Die von Sensoren gewonnenen Informationen werden meist zum Steuern von automatisch arbeitenden Anlagen verwendet. Eine Übersicht über die in diesem Kapitel beschriebenen optischen Sensoren gibt Abb. 4.1.
Abb. 4.1. Übersicht über gebräuchliche optische Sensoren
4.2 Lichtschranken und Lichttaster Man unterscheidet zwischen Einweg-, Reflexions- und Taster-Systemen. Generell gilt, dass die Reichweite von optischen Sensoren um so höher ist, je größer die Fläche der Empfangsoptik ist. Dies ist unter anderem ein Grund für die Vielfalt der auf dem Markt befindlichen Sensoren. Die nachfolgenden Abschnitte handeln hauptsächlich von den optischen Eigenschaften der besprochenen Sensoren. Nicht vergessen darf man je-
176
4 Sensoren
doch, dass auch an die Signalverarbeitung hohe Anforderungen gestellt werden, um beispielsweise eine möglichst große Fremdlichtunabhängigkeit zu erreichen. Dies ist auch der Grund dafür, dass die Lichtquelle fast aller optischer Sensoren gepulst betrieben wird. 4.2.1 Einweg-Lichtschranken Einweg-Lichtschranken bestehen aus einem Sender und einem Empfänger, die räumlich voneinander getrennt jeweils in einem eigenen Gehäuse angeordnet sind (Abb. 4.2). Der Sender enthält eine Leucht- oder Laserdiode (meist rot oder infrarot). Der Empfänger detektiert das einfallende Licht mit einer Fotodiode. Linsen dienen zur Fokussierung des Lichtes, und eine komplexe elektronische Schaltung dient zur Steuerung und zur Signalverarbeitung. Die Lichtschranke schaltet, wenn der Lichtstrahl durch ein Objekt unterbrochen wird.
Abb. 4.2. Prinzip (links) und Foto (rechts) von Sender und Empfänger einer Einweglichtschranke (Werkfoto: SICK AG)
Die getrennte Anordnung von Sender und Empfänger erfordert im Vergleich zu den übrigen Sensoren einen höheren Montage- und Verkabelungsaufwand. Einweg-Systeme besitzen einen divergenten Sendestrahl und eine gleichartige Empfangscharakteristik (Abb. 4.3), damit der Empfänger auch bei einer geringfügigen Dejustage oder bei Schwingungen und Vibrationen noch Licht vom Sender empfangen kann. Trotzdem erfordern EinwegLichtschranken eine relativ aufwändige Justage. Der aktive Erkennungsbereich entspricht etwa dem Linsendurchmesser (Abb. 4.3). Einweglichtschranken erkennen zuverlässig undurchsichtige und spiegelnde Objekte. Sie sind jedoch nur bedingt zum Erkennen transparenter Gegenstände geeignet.
4.2 Lichtschranken und Lichttaster
177
Abb. 4.3. Sende- und Empfangskeule einer Einweglichtschranke
Anwendungsbereiche Einweglichtschranken werden meist eingesetzt, um über eine größere Entfernung hinweg (bis zu 300 m) das Unterbrechen des Lichtstrahles zu detektieren. Dies kann beispielsweise genutzt werden, um zu verhindern, dass sich ein Rolltor schließt, wenn sich noch ein Fahrzeug darunter befindet (Abb. 4.4).
Abb. 4.4. Einweglichtschranke zur Sicherung eines Rolltores
4.2.2 Lichtgitter Lichtgitter sind eine Aneinanderreihung von Einweglichtschranken (Abb. 4.5). Alle Sender und alle Empfänger sind jeweils in einem gemeinsamen Gehäuse untergebracht. Die verschiedenen Sender werden nacheinander gepulst, um ein Übersprechen der verschiedenen Lichtschranken zu verhindern. Sind die Abstände zwischen den Lichtstrahlen sehr gering, so spricht man auch von einem Lichtvorhang.
178
4 Sensoren
Abb. 4.5. Prinzip (links) und Foto von Sender und Empfänger eines Lichtgitters (rechts, Werkfoto: SICK AG)
Anwendungsbereiche Lichtgitter werden für zwei grundlegend unterschiedliche Anwendungsfelder angeboten: x Sicherheitstechnik Lichtgitter dienen dem Unfall- und Personenschutz, indem sie den Zugang zu gefährlichen Anlagen, beispielsweise Pressen und Handlingautomaten, überwachen. Wird einer der Lichtstrahlen unterbrochen, dann wird die gefährliche Anlage sofort gestoppt (Abb. 4.6).
Abb. 4.6. Lichtgitter zur Gefahrstellenabsicherung an einem Bearbeitungszentrum
x Automatisierungstechnik Lichtgitter dienen beispielsweise zum Messen der ungefähren Höhe eines Paketes, das auf einem Förderband zwischen einem Lichtgitter hindurchgeführt wird. Die Höhe des Paketes kann aus der Anzahl der unterbrochenen Lichtstrahlen abgeschätzt werden.
4.2 Lichtschranken und Lichttaster
179
4.2.3 Reflexions-Lichtschranken Sender und Empfänger sind bei Reflexions-Lichtschranken in einem gemeinsamen Gehäuse untergebracht. Das ausgesandte Licht wird von einem Retro-Reflektor wieder auf den Empfänger zurück reflektiert. Das Licht durchläuft somit zweimal die Strecke Sensor – Reflektor. Verglichen mit einem Einwegsystem sind die Reichweiten von Reflexions-Lichtschranken deutlich kürzer. Wird der Lichtweg zum Reflektor durch ein Objekt blockiert, dann wird der Schaltausgang der Lichtschranke aktiviert. Durch das Integrieren von Sender und Empfänger in einem gemeinsamen Gehäuse reduzieren sich Montage- und Verkabelungsaufwand im Vergleich zu Einweg-Lichtschranken erheblich. Einfacher ist auch die Justage der Reflexions-Lichtschranke. Während bei der Einweg-Lichtschranke Sender und Empfänger präzise aufeinander ausgerichtet werden müssen, lässt der Reflektor etwas größere Toleranzen zu. Autokollimationsprinzip Bei einer Autokollimationslichtschranke durchläuft das Sendelicht einen halbdurchlässigen Spiegel, bevor es aus der Optik austritt. Nachdem es vom Reflektor zurückgeworfen wurde, tritt es teilweise durch den Spiegel hindurch und gelangt auf die Fotodiode (Abb. 4.7).
Abb. 4.7. Prinzip (links) und Foto (rechts) einer Autokollimationslichtschranke (Werkfoto: SICK AG)
Der Nachteil des Autokollimationsprinzipes ist jedoch, dass jeweils 50% des Sende- und Empfangslichtes am halbdurchlässigen Spiegel verloren gehen. Doppellinsen-System Beim Doppellinsen-System (Abb. 4.8) sind Sende- und Empfangsstrahl geometrisch voneinander getrennt und stehen in einem flachen Winkel zu-
180
4 Sensoren
einander. Wie in Abb. 4.8 zu sehen, überlappen Sende- und Empfangsstrahl nur in einem gewissen Tastweitenbereich. Im Nahbereich (meist < 0,1 m) entsteht ein Blindbereich, in dem kein Objekt erkannt werden kann. Daher sind beim Einsatz von Sensoren mit Doppellinsenoptik Mindestreichweiten zu beachten, die nicht unterschritten werden dürfen (Abb. 4.9).
Abb. 4.8. Prinzip des Doppellinsensystems (links) und Foto einer Reflexionslichtschranke mit Doppellinsenoptik (rechts, Werkfoto: SICK AG)
Abb. 4.9. Signalhöhe einer Reflexionslichtschranke mit Doppellinsenoptik in Abhängigkeit von der Tastweite für drei verschiedene Reflektortypen. Die angegebene Betriebsreichweite legt eine Funktionsreserve (etwa Faktor 4) zugrunde
In der Praxis werden Lichtschranken mit einer Funktionsreserve (etwa Faktor 4) ausgelegt, so dass sie auch dann noch zuverlässig funktionieren, wenn die Linsen verschmutzt sind und die Leuchtdiode degradiert ist. Reflektoren für Reflexions-Lichtschranken Als Reflektoren werden meist Tripelspiegel (umgangssprachlich „Katzenauge“) verwendet. Sie bestehen aus drei senkrecht aufeinander stehenden Spiegelflächen, die man sich als abgeschnittene Ecke eines innen verspiegelten hohlen Würfels vorstellen kann (Abb. 4.10).
4.2 Lichtschranken und Lichttaster
181
Abb. 4.10. 3D-Ansicht eines einzelnen Tripelspiegels. Der Strahlengang von Tripelreflektoren ist unübersichtlich, da drei Reflexionen stattfinden
Das Besondere an Tripelspiegeln ist, dass sie auftreffendes Licht parallel zur Einfallsrichtung reflektieren. Dies sorgt für die verhältnismäßig hohe Reichweite von Reflexions-Lichtschranken. Vorteilhaft ist zudem, dass diese Richtungsumkehr invariant gegen eine gewisse Verkippung des Tripelspiegels ist (ca. 15°, der Grenzwinkel der Totalreflexion darf nicht überschritten werden, Abb. 4.11). In der Praxis werden Tripelspiegel nicht aus drei Spiegeln zusammengesetzt, sondern als ganzer transparenter Körper aus Glas oder Kunststoff hergestellt, wobei die Reflexionen als Totalreflexionen stattfinden. Vielfach bestehen Tripelreflektoren aus mehreren kleinen Tripelelementen, die aus Kunststoff gespritzt oder in eine Kunststofffolie geprägt werden (Abb. 4.12). Ein- und auslaufender Strahl sind gegeneinander versetzt (Abb. 4.11). Dieser sogenannte Tripelversatz wächst mit der Größe des einzelnen Tripelspiegels. Der Tripelversatz führt zu einer Aufweitung des reflektierten Strahles. Dies ist hilfreich für den Betrieb von Reflexionslichtschranken mit Doppellinsenoptik bei geringem Reflektorabstand, da mehr Licht in den Empfänger gelangen kann.
Abb. 4.11. Prinzip des Tripelspiegels, zweidimensionale (dadurch vereinfachte) Darstellung, links senkrechter Lichteinfall, rechts Tripelspiegel gekippt
Tripelreflektoren (Abb. 4.12) drehen die Schwingungsebene polarisierten Lichtes um etwa 90°. Dies nutzt man aus, um mit Reflexionslichtschranken auch spiegelnde Objekte sicher erkennen zu können.
182
4 Sensoren
Abb. 4.12. Bauformen von Tripelreflektoren, links ein einzelner großer Tripelspiegel aus Glas, rechts ein Kunststoff-Tripelreflektor mit vielen kleinen Tripelspiegeln (Werkfoto: SICK AG)
Polarisationsfilter zum Erkennen spiegelnder Objekte Sende- und Empfangsoptik eines Doppellinsen-Systems werden mit Linearpolarisationsfiltern versehen, deren Durchlassrichtungen senkrecht aufeinander stehen. Die Polarisationsebene des Sendelichtes wird vom TripelReflektor um ca. 90° gedreht (vereinfacht dargestellt; denn teilweise wird das Licht auch depolarisiert) und kann somit das Polarisationsfilter der Empfangsoptik passieren (Abb. 4.13).
Abb. 4.13. Arbeitsweise von Reflexionslichtschranken mit Polarisationsfiltern (mit und ohne spiegelndes Objekt)
Wird das Sendelicht jedoch an einem spiegelnden Objekt reflektiert, so bleibt die Polarisationsrichtung erhalten, und es kann daher nicht in den Empfänger gelangen. Deshalb werden auch spiegelnde Objekte erkannt. Es ist zu beachten, dass eine einfache Standard-Reflexfolie (mit eingelagerten Glaskugeln) die Polarisationsrichtung nicht dreht. Man muss daher Tripelreflektoren verwenden oder Reflexfolien, die mikroskopische Tripelreflektoren enthalten.
4.2 Lichtschranken und Lichttaster
183
Durch den Einsatz von Polarisationsfiltern verringert sich die Reichweite von Lichtschranken mit Leuchtdioden um mehr als die Hälfte, da das unpolarisierte Licht der Leuchtdiode polarisiert werden muss. Problematisch sind transparente Materialien, beispielsweise Plexiglasabdeckungen oder Folienkaschierungen. Dabei ist es weniger der Oberflächenglanz, der stört, sondern Reflexionen von der Rückseite des transparenten Materials. Plexiglas und viele optisch klare Folien drehen, bedingt durch deren molekularen Aufbau, die Polarisationsebene des auftreffenden Lichtes. Von der Rückseite des Materials reflektiert, kann das Licht dann das Polarisationsfilter des Empfängers passieren. Daher wird die Folie vom Sensor nicht zuverlässig erkannt. Anwendungsbereiche Die Anwendungen für Reflexionslichtschranken sind sehr vielfältig und finden sich überall, wo durch ein zu detektierendes Objekt der Lichtweg zum Reflektor unterbrochen wird (wie bei der Einweglichtschranke). In Abb. 4.14 werden als Beispiel Flaschen auf einem Förderband erkannt.
Abb. 4.14. Reflexionslichtschranke erkennt Flaschen auf einen Förderband
4.2.4 Reflexions-Lichttaster Lichtsender und -empfänger sind bei Reflexions-Lichttastern analog zur Reflexions-Lichtschranke in einem gemeinsamen Gehäuse untergebracht. Ähnlich sind auch die Funktionsprinzipien. Während jedoch der Lichtstrahl einer Reflexions-Lichtschranke von einem Reflektor zurück geworfen wird, verwendet ein Lichttaster ein beliebiges Objekt als reflektierendes Medium. Das Sendelicht des Reflexions-Lichttasters fällt auf das Tastgut. Das davon remittierte Licht gelangt zum Empfänger und wird ausgewertet. Entscheidend für die Signalhöhe ist dabei das Remissionsvermögen des Tastgutes. Als spektralen Remissionsgrad E (O) bezeichnet man den Anteil des diffus (matt) reflektierten Lichtes (Strahlungsfluss )E,Probe). Die Bezugsgröße ist jedoch nicht die Strahlungsleistung des auf die Probe auftreffenden
184
4 Sensoren
Lichtes, wie bei der Definition der Transmission, sondern die Strahlungsleistung )W des von einem speziellen Weißstandard (Lambertstrahler) unter den gleichen Bedingungen diffus reflektierte Lichtes (Gl. 4.1).
E O
) E , Probe O . ) w O
(4.1)
Für die Messung des Remissionsgrades ist zu beachten, dass das reflektierte Licht nicht im geometrischen Reflexionswinkel (Glanzwinkel) des eingestrahlten Lichtes gemessen wird (Abb. 4.15 links). Für einige Materialien ist der Remissionsgrad in Tabelle 4.1 angegeben. Oft wird die Definition des Remissionsgrades auch auf glänzende Oberflächen erweitert. Misst man E (O) im Glanzwinkel (Abb. 4.15 rechts), dann erhält man auch Werte über 100%, bei Reflektoren erreicht man mehr als 2.000% (Tabelle 4.2). Es ist anhand dieser Werte zu sehen, dass die Helligkeit des remittierten Lichtes eines beliebigen matten Objektes (auch eines weißen) stets geringer ist als die Helligkeit des Oberflächenreflexes sogar von schwarz eloxiertem Aluminium.
Abb. 4.15. Messung des diffus reflektierten Lichtes zum Bestimmen des Remissionsgrades (links), Messung im Glanzwinkel (rechts) Tabelle 4.1. Remissionsgrad einiger matter Oberflächen Material Fotokarton, mattschwarz Karton, grau Holz (Tanne roh, verschmutzt) PVC, grau Papier, mattweiß
Remissionsgrad 10% 20% 40% 50% 80%
4.2 Lichtschranken und Lichttaster
185
Tabelle 4.2. Remissionsgrad einiger Oberflächen mit Glanzanteil Material Aluminium, schwarz eloxiert Stahl, rostfrei Stahl, hochglänzend Reflektoren
Remissionsgrad 110 bis 150% 120 bis 150% 140 bis 200% > 2.000%
Einfache energetische Lichttaster Im einfachsten Falle wird der Schaltausgang eines Lichttasters beim Erreichen einer bestimmten auf den Empfänger treffenden Strahlungsleistung aktiviert. Die Einstellung der Schaltschwelle erfolgt über die Empfindlichkeit des Empfängers. Eine helle Fläche remittiert mehr Licht als eine dunkle und kann daher auch aus einer größeren Entfernung erkannt werden. Um ähnliche Ergebnisse mit einer dunklen Fläche zu erzielen, muss die Empfindlichkeit des Tasters erhöht werden. Das bedeutet, dass energetische Lichttaster einen objektabhängigen Schaltpunkt besitzen. Da das Remissionsvermögen von gewöhnlichen Oberflächen zudem niedriger ist als das eines Reflektors, ist die Reichweite von Tastern kleiner als die von Lichtschranken. Zudem lässt sich die Tastweite nicht immer einfach quantifizieren, da ein großer Gegenstand im Sichtfeld der Empfangsoptik mehr Licht zurückwirft als ein kleiner. Problematisch ist bei energetischen Tastern das Erkennen eines dunklen Objektes vor hellem Hintergrund. Der Hintergrund überstrahlt aufgrund der höheren Remission das Objekt. Geradezu ideal ist das Erkennen eines hellen Objektes vor dunklem Hintergrund. Es ist vor dem vergleichsweise schwach remittierenden Hintergrund gut zu erkennen. Lichttaster mit Hintergrund Lichttaster mit Hintergrundausblendung sind in der Lage, ausschließlich Objekte zu erkennen, die sich innerhalb einer bestimmten, maximalen Entfernung vom Sensor befinden. Alles dahinter Liegende wird ausgeblendet. Die Ausblendung des Hintergrundes erfolgt durch die besondere geometrische Anordnung der Empfänger (Abb. 4.16). Befindet sich das Objekt nahe am Sensor (Abb. 4.16 rechts), dann fällt das remittierte Licht auf den Empfänger E2. Ist das Objekt weiter vom Sensor entfernt (Abb. 4.16 links), so fällt das ankommende Licht auf den Empfänger E1 und wird von der Elektronik unterdrückt. Analog dazu arbeiten Lichttaster mit Vordergrundausblendung. In diesem Falle wird Empfänger E1 ausgewertet, und E2 wird ignoriert.
186
4 Sensoren
Bei Lichttastern mit verstellbarer Tastweite kann durch Drehen eines Spiegels das Empfangslicht auf der segmentierten Fotodiode (E1–E2) positioniert werden, um eine bestimmte Tastweite einzustellen.
Abb. 4.16. Funktionsweise der Hintergrundausblendung
Anwendungsbereiche Reflexions-Lichttaster werden immer dann verwendet, wenn die Objekte selbst (und nicht der Reflektor wie im Falle von ReflexionsLichtschranken) detektiert werden müssen und der Tastabstand relativ klein ist (Abb. 4.17).
Abb. 4.17. Reflexions-Lichttaster überprüfen vor dem Verschließen der Blisterverpackung die Anwesenheit der Kekse
4.2.5 Lichtleiter-Lichtschranken und -Lichttaster Es gibt Anwendungen, bei denen die Platzverhältnisse am Detektionsort so beengt sind, dass sogar Subminiaturlichtschranken (Würfelzuckergröße) noch zu groß sind. Manchmal herrschen am Einsatzort der Lichtschranke hohe Temperaturen (etwa in einem Ofen) oder aggressive Umgebungsbe-
4.2 Lichtschranken und Lichttaster
187
dingungen (Lebensmittelindustrie, chemische Industrie). In diesen Fällen werden Lichtschranken mit Lichtleitern eingesetzt. Lichtleiter-Lichtschranken besitzen zwei Öffnungen im Gehäuse, in denen Sende- und Empfangslichtleiter montiert werden. Es existiert ein umfassendes Programm von bereits fertig konfektionierten oder frei adaptierund kürzbaren Lichtleitern. Man kann zwischen Lichtleitern aus Kunststoff oder Glas, mit Kunststoff- oder Metallmantel, Steck- oder Schraubverbindung auswählen. Lichtleiter unterscheiden sich durch die verwendete Ummantelung und durch Anzahl, Anordnung, Querschnitt und Material der innenliegenden Fasern. Glasfaser-Lichtleiter lassen sich bei Temperaturen bis 315°C einsetzen. Lichtleiter aus Kunststoff-Fasern sind dagegen meist beliebig kürzbar und ihre Biegeradien sind kleiner. Je nachdem, ob die beiden Lichtleiter parallel geführt sind oder ob sie sich gegenüber stehen, erhält man einen Lichtleiter-Taster (bzw. eine Lichtleiter-Reflexionslichtschranke) (Abb. 4.18) oder eine Lichtleiter-Einweglichtschranke (Abb. 4.19). Anwendungsbereiche Lichtleiter-Lichtschranken finden sich typischerweise in der Halbleiterindustrie, der Elektronikmontage (Abb. 4.19), in der Verpackungstechnik, im Sondermaschinenbau sowie in der Feinwerktechnik. Um den vielen unterschiedlichen Anwendungsfällen gerecht zu werden, bieten die Hersteller für ein Gerät typischerweise über 50 verschiedene Lichtleiter an.
Abb. 4.18. Lichtleiter-Taster mit Kunststoff-Lichtleiter (Werkfoto: SICK AG)
188
4 Sensoren
Abb. 4.19. Erkennen von Kontaktstiften in beengter Umgebung durch Lichtleiter mit einer integrierten 90°-Umlenkung am Ende (Einweglichtschranke)
4.2.6 Kontrasttaster Kontrasttaster arbeiten nach dem Prinzip der Reflexions-Lichttaster. Sie dienen zum Erkennen von Kontrastunterschieden, um beispielsweise Druckmarken auf Folien oder Verpackungsmaterialien sicher zu detektieren. Sie sind optimiert auf das Erkennen von schwachen Kontrastunterschieden und unterscheiden bis zu 30 Graustufen. Bei jedem Übergang von einer hellen zu einer dunkleren Fläche und umgekehrt ändert der Kontrasttaster seinen Schaltzustand. Die maßgebliche Schaltschwelle wird manuell oder über einen Einlernvorgang (Teach In) gesetzt. Druckmarken sind meist farbige Strukturen auf einem farbigen Hintergrund. Um einen maximalen Kontrast zu erzeugen, haben manche Kontrasttaster verschiedene Sendelichtfarben (z.B. eine 3-Farben-LED). Es wird manuell oder automatisch die Farbe gewählt, die den höchsten Grauwertunterschied zwischen Marke und Hintergrund ergibt. Da Kontrasttaster oft in der Druckindustrie eingesetzt werden, wo hohe Materialgeschwindigkeiten üblich sind, werden Kontrasttaster meist für hohe Schaltgeschwindigkeiten von bis zu 25 kHz ausgelegt. Eine typische Tastweite ist 20 mm. Anwendungsbereiche Kontrasttaster werden in der Druck- und Verpackungsindustrie zum Erkennen von Druck- und Falzmarken sowie Rapporten mit einer hohen Detektionsgeschwindigkeit eingesetzt (Abb. 4.20).
4.2 Lichtschranken und Lichttaster
189
Abb. 4.20. Kontrasttaster zum Lesen von Druckmarken
4.2.7 Lumineszenztaster Lumineszenztaster sind Reflexions-Lichttaster, die mit unsichtbarem ultraviolettem (UV) Sendelicht arbeiten. Sie erkennen natürliche oder zur Produktmarkierung aufgebrachte Fluoreszenzfarbstoffe (Luminophore), die oft mit bloßem Auge nicht erkennbar sind. Luminophore leuchten jedoch im sichtbaren Wellenlängenbereich, wenn sie mit UV-Licht angestrahlt werden. Lumineszenztaster enthalten Leuchtdioden, die ultraviolettes Licht emittieren (ca. 375 nm). Der Empfangspfad ist mit einem Filter ausgestattet, das nur sichtbares Licht (also auch das vom Objekt emittierte Fluoreszenzlicht) durchlässt. Anwendungsbereiche Luminophore kann man nahezu allen Substanzen beimengen: Ölen, Tinten, Fetten und Klebstoffen. Zudem lassen sie sich auch unsichtbar auf feste Materialien wie Etiketten oder Kartons aufbringen, auch wenn diese schon mit anderen Informationen bedruckt sind. Hilfreich sind Luminophore insbesondere dann, wenn ein optisch klares Objekt, beispielsweise ein transparenter Kleberauftrag, erkannt werden soll. Werden dem Kleber Luminophore beigemischt, dann ist er für den Sensor erkennbar, für den Betrachter jedoch nach wie vor transparent. Da die Markierungen unsichtbar sein können, eignen sie sich auch für das Anbringen von Kontrollmarken zum Feststellen der Echtheit von Waren, beispielsweise von hochwertigen Markenartikeln.
190
4 Sensoren
Abb. 4.21. Lumineszenztaster erkennt manuell aufgebrachte lumineszierende Markierungen auf einem Brett zur Steuerung einer Kappsäge (Werkfoto: SICK AG)
Verbreitet sind Lumineszenztaster auch in der holzverarbeitenden Industrie (Abb. 4.21), um manuell aufgebrachte lumineszierende Markierungen für automatisch durchgeführte Sägeschnitte zu erkennen. Der Lumineszenztaster wird nicht durch im Holz vorhandene Strukturen (z.B. Astlöcher) gestört. 4.2.8 Farbsensoren Farbsensoren sind oft nach dem Autokollimationsprinzip aufgebaut (Abb. 4.22). Sie enthalten als Sender drei verschiedene Leuchtdioden in den Farben rot, grün und blau, mit denen das Tastgut nacheinander beleuchtet wird. Da die Remission abhängig ist von der Wellenlänge des eingestrahlten Lichtes – eine rote Oberfläche remittiert rotes Licht stärker als blaues – ist das Intensitätsverhältnis der verschiedenen remittierten Farben charakteristisch für den Farbton des Tastgutes. Dieser Messwert wird mit zuvor gespeicherten Referenzfarbwerten verglichen. Liegen die Werte innerhalb der Toleranz, dann wurde die Referenzfarbe erkannt und der Schaltausgang aktiviert. Auf diese Weise können beispielsweise auf einem Förderband Objekte mit einer falscher Farbe ausgesondert werden. Die Farben hochglänzender Gegenstände werden eventuell als unbunt erkannt, da es sich im Wesentlichen um Reflexionen an der Oberfläche handelt. Abhilfe schafft hier das Schrägstellen des Sensors um etwa 15°, damit der Reflex nicht in den Sensor gelangen kann. Die Genauigkeit der Farbmessung mit einem Farbsensor kann nicht mit der Messung eines Spektrometers verglichen werden. Für die Praxis in der Automatisierungstechnik reicht sie jedoch vollkommen aus.
4.3 Distanzsensoren
191
Abb. 4.22. Optischer Aufbau (links) und Foto eines Farbsensors (rechts, Werkfoto: SICK AG)
Anwendungsbereiche Die Einsatzbereiche von Farbsensoren sind vielfältig und erstrecken sich vom Kontrollieren von Verpackung, Etikett oder Inhalt bis zum Erkennen von Kabel- und Aderfarben in der Elektrotechnik (Abb. 4.23).
Abb. 4.23. Nähseide wird vom Farbsensor vor der Verpackung auf die richtige Farbgebung geprüft (Werkfoto: SICK AG)
4.3 Distanzsensoren Für komplexe Aufgaben in der Automatisierungstechnik muss häufig der Abstand zu einem Tastgut (Reflektor oder Objekt) bestimmt werden. Für diesen Zweck werden Distanzsensoren eingesetzt, die meist auf einem der drei nachfolgend beschriebenen Messverfahren basieren (bzw. auf Kombinationen davon).
192
4 Sensoren
4.3.1 Triangulations-Sensoren Ein Triangulationssensor ist ein Lichttaster, dessen lichtempfindlicher Detektor in der Lage ist, den Ort des auftreffenden Lichtes zu bestimmen. Dies geschieht entweder durch eine segmentierte Fotodiode, eine CCD-Zeile (charge coupled device) oder ein PSD-Element (position sensitive detector). Das Sendelicht trifft senkrecht auf das Tastgut. Da der Empfangspfad schräg zum Sendepfad angeordnet ist (Abb. 4.24), trifft das vom Objekt remittierte Licht für verschiedene Tastweiten jeweils auf eine andere Stelle des streifenförmig ausgedehnten Empfängers. Dieser Zusammenhang wurde bereits in Abschn. 4.2.4 im Zusammenhang mit der Hintergrundausblendung dargestellt. Der Unterschied liegt im Empfänger selbst. Beim Triangulationssensor ist der Empfänger entweder in sehr viele Segmente aufgeteilt oder der Auftreff-Ort des Lichtes kann im Falle eines PSD sogar kontinuierlich bestimmt werden. Da die Position des remittierten Lichtes mit hoher Genauigkeit gemessen werden kann, ist über eine einfache geometrische Beziehung auch der Abstand zum Tastgut präzise bestimmbar. Ein Triangulationssensor besitzt meist einen binären Ausgang, über den er das Vorhandensein eines Objektes meldet, und einen analogen Ausgang, an dem die Entfernungsinformation vorliegt. Manchmal ist es wünschenswert, dass der Lichtfleck auf der Oberfläche des Tastgutes immer scharf auf den Empfänger abgebildet wird – unabhängig vom Tastabstand. Die Schärfentiefe der Empfangsoptik reicht dafür
Abb. 4.24. Prinzip (links) eines Triangulationssensors, der die Scheimpflugbedingung erfüllt, und Foto eines Triangulationssensors (rechts, Werkfoto: SICK AG)
4.3 Distanzsensoren
193
nicht aus. Aus diesem Grund werden Triangulationssensoren oft so aufgebaut, dass sie die Scheimpflugbedingung erfüllen (Theodor Scheimpflug, 1865 bis 1911). Das heißt, dass sich Sendeachse, Objektiv- und Bildebene in einem Punkt schneiden (Abb. 4.24). In diesem Falle wird für jede Tastweite innerhalb des Messbereiches der Lichtfleck auf dem Objekt scharf auf den Empfänger abgebildet. Triangulationssensoren werden für unterschiedliche Messbereiche hergestellt. Sie bewegen sich von einigen Zentimetern bis zu wenigen Metern. Die Genauigkeit beträgt – abhängig vom Remissionsvermögen des Tastgutes – wenige Prozent der Tastweite. Anwendungsbereiche Triangulationssensoren dienen häufig zum Messen von Breiten oder Dicken, beispielsweise von Brettern, die von einer automatischen Säge verarbeitet werden (Abb. 4.25).
Abb. 4.25. Vor einer Kappsäge wird während des automatischen Brettvorschubes kontinuierlich die Breite gemessen
4.3.2 Pulslaufzeit-Sensoren Die Pulslaufzeitmessung basiert auf der Zeitmessung zwischen dem Aussenden eines Lichtpulses und dem Detektieren des remittierten Lichtes. 8 Die Schwierigkeit ist hierbei die mit 310 m/s sehr hohe Lichtgeschwindigkeit. Um einen Längenunterschied von 1 cm aufzulösen, benötigt man daher eine Genauigkeit der Zeitmessung von 33 ps. Diese Präzision ist gegenwärtig nur mit einer relativ langen Messzeit erreichbar. Die Pulslaufzeitmessung eignet sich für Sensoren mit einer Messgenauigkeit von einigen Zentimetern bei einer Reichweite bis etwa 6 m im Tasterbetrieb (ohne Reflektor). Die Genauigkeit der Entfernungsmessung hängt stark von der Remission des Tastgutes ab und beträgt zwischen 1% (bei 90% Remission) und etwa 10% (bei 6% Remission) der Tastweite.
194
4 Sensoren
Häufig sind Distanzsensoren mit Infrarotlaserdioden als Sender ausgestattet. Damit sie leicht justiert werden können, haben sie manchmal zusätzlich eine rote Leuchtdiode als Pilotlicht.
Abb. 4.26. Foto eines Pulslaufzeit-Distanzsensors (Werkfoto: SICK AG)
Anwendungsbereiche Distanzsensoren mit einem Schaltausgang werden in der Fördertechnik, zur Fachbelegungskontrolle im Lager und überall dort verwendet, wo Abstände mit Genauigkeiten im cm-Bereich überwacht werden müssen (Abb. 4.27).
Abb. 4.27. Anwendungen für Distanzsensoren: Durchmesserüberwachung an einer Blechrolle (links), Kollisionsverhinderung an einem Hängeförderer (rechts)
4.3.3 Phasenkorrelations-Sensoren Wie im vorangegangenen Abschnitt erläutert, ist es aufgrund der hohen Lichtgeschwindigkeit c schwierig, die Laufzeit eines Lichtpulses so genau zu messen, dass eine Abstandsauflösung im mm-Bereich möglich wird.
4.3 Distanzsensoren
195
Man greift daher auf einen mit der Frequenz fm sinusförmig modulierten Laserstrahl zurück. Der Laufzeitunterschied 't zwischen auslaufendem und reflektiertem Licht führt zu einer Phasendifferenz ') (Abb. 4.28). Aus der Phasendifferenz ergibt sich der zu messende Abstand 's (Gl. 4.2), wobei nur die Hälfte der Phasendifferenz relevant ist, da der Strahl den zu messenden Abstand 's zweimal durchläuft.
Abb. 4.28. Sinusförmig moduliertes Licht wird von einem Reflektor oder einem Objekt zurückgeworfen und vom Empfänger detektiert. Abhängig von der Laufzeit des Lichtes ergibt sich eine Phasendifferenz ') = 'M + n2S
')
2Sf m 't
's
1 c't 2
fm
Modulationsfrequenz
c
c') 4Sf m
(4.2)
3 108 m/s
Da der Phasenunterschied aufgrund der Periodizität der Sinusmodulation nur bis auf n Vielfache von 2S bestimmbar ist, erhält man vom elektronischen Phasenkomparator als Messwert nur den Phasenrest 'M (Gl. 4.3).
')
'M n 2S
(4.3)
Daraus folgt mit Gl. 4.2 und der Modulationswellenlänge Om = c/fm:
's
Om 'M 2
(
2S
n) .
(4.4)
Die Anzahl n der enthaltenen Vielfache von 2S ist zunächst unbekannt.
196
4 Sensoren
Bei einer Modulationsfrequenz von fm = 150 MHz (entspricht einer Modulationswellenlänge von Om = 2 m) und einer Genauigkeit der Phasenmessung von 0,1° erreicht man eine Auflösung der Abstandsmessung von 0,55 mm. Der Abstand ist nach der Bestimmung von 'M bis auf Vielfache der halben Modulationswellenlänge mit hoher Genauigkeit bekannt (Gl. 4.4). Die Anzahl n der Vielfachen wird durch eine oder mehrere weitere Messungen bestimmt, bei denen die Modulationsfrequenz niedriger ist als zuvor, beispielsweise bei einem zu messenden Abstand von 10 m eine Frequenz fm von 10 MHz (entspricht einer Modulationswellenlänge von 30 m). Der Phasenunterschied ') ist kleiner als 2S und wird daher vom Phasenkomparator korrekt bestimmt, wenn auch mit geringerer Genauigkeit als zuvor. Die Genauigkeit (bei 0,1° Auflösung beträgt sie etwa 8 mm) ist jedoch bei weitem ausreichend, um den Abstand grob zu messen und damit die Zahl n der ersten hochgenauen Messung zu bestimmen und somit zu einer hochgenauen absoluten Abstandsmessung zu gelangen. Anwendungsbereiche Präzise Distanzsensoren (Abb. 4.29) werden beispielsweise in der Lagertechnik zur exakten Positionierung von Regalbediengeräten verwendet (Abb. 4.30). Distanzsensoren auf der Basis der Phasenkorrelation werden angeboten für Reichweiten bis zu 500 m im Reflektorbetrieb und bis zu 2 m im Tasterbetrieb auf beliebigen Oberflächen.
Abb. 4.29. Foto eines Laser-Distanzsensors nach dem Phasenkorrelationsverfahren. Die Laserdiode befindet sich koaxial in der Mitte der Empfangslinse (Werkfoto: SICK AG)
4.4 Laserscanner
197
Abb. 4.30. Schienengebundenes Regalbediengerät wird mit einem Distanzsensor millimetergenau positioniert (Werkfoto: SICK AG)
4.4 Laserscanner 4.4.1 Funktionsprinzip des Laserscanners Das Funktionsprinzip des Laserscanners beruht auf der Kombination eines Lasersenders mit einem beweglichen Drehspiegel. Abbildung 4.31 zeigt den Grundaufbau einer solchen Anordnung:
Abb. 4.31. Funktionsprinzip eines Laserscanners
198
4 Sensoren
Das von einer Laserdiode erzeugte Strahlenbündel wird mittels einer Kollimatoroptik im Abstand D zum Punktbild gebündelt und kann durch Veränderung der Winkeleinstellung M1 des Ablenkspiegels (A) in der Tastebene entlang einer Linie von (P1) nach (P3) abgelenkt werden. Man erhält so die Möglichkeit, kontinuierlich eine Linie in der Abtastebene zu erfassen. Der Ablenkwinkel M2 des Laserstrahles vergrößert sich mit der doppelten Geschwindigkeit des Drehwinkels M1 des Ablenkspiegels (A).
d(M 2 ) 2 . d(M 1 )
(4.5)
Lässt man beispielsweise den Ablenkspiegel mit der Winkelgeschwindigkeit Z1 drehen, erhält man für die Rotation des Laserstrahls um den Punkt (PD):
Z2
2Z1 .
(4.6)
In Abb. 4.31 wurde der prinzipielle „Kern“ des Laserscanners vorgestellt. Die Vorrichtung benötigt, um als „Sensor“ zu arbeiten, nicht nur den optischen Strahlungssender, sondern auch einen entsprechenden Strahlungsempfänger, um die Eigenschaften des abgetasteten oder erfassten Objektes auszuwerten. Den Empfang des vom Objekt remittierten Strahlungsanteils zeigt Abb. 4.32. Die in der Tastebene (oder auf einem Objekt) auftreffende Strahlung wird remittiert. Es sei an dieser Stelle angemerkt, dass auch beim Laserscanner Probleme der „spiegelnden“ Reflexion und der Polarisation eine Rolle spielen, außerdem entstehen durch die Anwendung kohärenter Strahlung Interferenz-Erscheinungen, die das Empfangssignal intensiv stochastisch modulieren und hier aufgrund der teilweise hohen Signalbandbreiten nicht mehr unterdrückbar sind. Besonders bei der häufig vorkommenden Abtastung einer Papieroberfläche kommt es zu derartigen Interferenzproblemen, da eine Papieroberfläche mit ihrer Mikrostruktur im Wellenlängenbereich um 0,6 µm liegt. Wie Abb. 4.32 zeigt, wird die in der Tastebene in Richtung des Scanners zurückgeworfene Strahlung über den Drehspiegel (1) und einen durchbohrten zweiten Umlenkspiegel (2) sowie einen entsprechenden Empfangskollimator (2) gebündelt und von einem Empfangselement erfasst. Ein an dieses Empfangselement angeschlossener Verstärker wird somit an seinem Ausgang ein zeitlich veränderliches Signal zeigen, womit die Aufgabe der dynamischen Abtastung einer Oberfläche entlang einer Linie gelöst wäre.
4.4 Laserscanner
199
Abb. 4.32. Funktionsprinzip Laserscanner mit Empfangsoptik
Die Abbildung lässt erkennen, dass das Empfangslichtbündel koaxial zum Sendelichtbündel liegt, d.h. die optischen Achsen des Sende- bzw. Empfangskanals sind identisch, wobei das Zentrum als Sendepfad, die umgebende Öffnung als Empfangspfad genutzt wird. Insofern gilt für die Ablenkung des Empfangskanals dasselbe wie für den Sendekanal. Besonderheiten des Laserscanners Der bestechend einfache Aufbau des (Dreh-)Spiegelscanners ist seit langem bekannt und wird in vielfältigen Anwendungen eingesetzt:
x x x x
Bildabtastung, Anzeigeelemente (auch Spiegeloszillografen), Bildstandserzeugung (Hochgeschwindigkeitskameras), Physikalische Experimente (Messung Lichtgeschwindigkeit).
200
4 Sensoren
Der Durchbruch des Funktionsprinzips erfolgte jedoch erst mit der Verfügbarkeit der Laserstrahlquelle. Vor allem in der Anwendung als Laserdrucker ist der Laserscanner im gehobenen Leistungssegment heute das vorherrschende Prinzip. Aufgrund der nahezu unbegrenzt schnellen (Amplituden-) Modulierbarkeit der Laserdiode in Verbindung mit schnelldrehenden Polygonspiegelrädern lässt sich eine sehr schnelle und zugleich hochauflösende Bildübertragung auf lichtempfindliche Flächen realisieren. Mit der Verfügbarkeit von Lasersendern im Bereich von 20 W bis 150 W (diodengepumpte Festkörperlaser) werden scannende Systeme auch zur direkten Markierung von Materialoberflächen eingesetzt. In der optischen Sensorik hat der Laserscanner einen hohen Verbreitungsgrad in der Ausführungsform als Barcodeleser gefunden (Abschn. 4.4.2). Bestechend einfache Funktionsprinzipien zeigen jedoch manchmal auch Schwächen, die in der Anwendung weitere Konsequenzen nach sich ziehen. Nachstehend seien beispielhaft zwei negative Eigenschaften des Grundprinzips und Möglichkeiten zu ihrer Korrektur aufgezeigt. Abbildung 4.33 lässt erkennen, dass sich der Fokalpunkt des kollimierten Sendestrahles auf dem Radius (Ds) befindet, und sich somit bei ebener Abtastfläche die Auflösung des Systems in den Randbereichen verschlechtert wird. Man kann dies auch als Schärfentiefenverlust des Systems deuten.
Abb. 4.33. Fokalfläche eines V-Scanners
4.4 Laserscanner
201
Die in Abb. 4.33 dargestellte Änderung des Fokalabstandes 'F beträgt: § 1 · 1¸¸ Ds ¨¨ © cos M 2 ¹
'F
(4.7)
dabei ist M2 der Auslenkwinkel des Abtaststrahles. Tabelle 4.3 zeigt einige Ergebnisse: Tabelle 4.3. der Fokallage in Abhängigkeit vom Auslenkwinkel
M2
'F (in% von Ds) 0 1,5 3,5 15,4
0° r 10° r 15° r 30°
Man kann diesen Fehler bei einfachen Anwendungen durch Ausmittelung des Fokalabstandes etwas entschärfen. Ein weiterer Fehler lässt sich aus Abb. 4.34 ersehen. Bedingt durch die scheinbare Verlängerung des Abtastradius (Ds) wird sich an den Rändern des Scanbereiches die Abtastgeschwindigkeit v erhöhen: Bei konstanter Drehgeschwindigkeit Z2 des Abtaststrahles müssen wir von folgenden Verhältnissen in der Abtastebene ausgehen:
H
H'
dH dM 2
dH dM
R tan M 2 .
x
R 1 tan 2 M 2 .
dH d Z t
vM 2 H
(4.8)
dH Z dt
.
(4.9)
(4.10)
Z R 1 tan 2 M 2 .
(4.11)
202
4 Sensoren
Abb. 4.34. Abtastgeschwindigkeit in Abhängigkeit vom Abtastwinkel
Tabelle 4.4 zeigt, dass sich die Abtastgeschwindigkeit v1 gegenüber der Abtastgeschwindigkeit v0 bei einer Auslenkung von r 17,5° um 10%, bei einer Auslenkung von r 30° jedoch bereits um 33% erhöht. Tabelle 4.4. Abtastgeschwindigkeit in Abhängigkeit vom Abtastwinkel
M2 [°] r 0q r 15q r 17,54q r 30q
(1+ tan²M2) [%] 100 107 110 133
Wenn man davon ausgeht, dass sich die im Empfangskanal auftretende maximale Signalfrequenz proportional der Änderungen der Abtastgeschwindigkeit ändert, erkennt man, dass sich gerade im Scannerendbereich, an dem die Auflösung durch die Fokaldifferenz bzw. den schrägen Strahleneinfall ohnehin beeinträchtigt wird, eine Geschwindigkeitserhöhung ergibt. Die vorgenannten Fehler lassen sich durch den Einsatz von optischen Systemen nach der Strahlablenkung korrigieren: So wird beispielsweise zur Veränderung des Strahlablaufs ein spezielles Objektiv, ein sogenanntes F-Theta-Objektiv verwendet, mit dem die Ablaufgeschwindigkeit in der Abtastebene linearisiert wird. Abbildung 4.35 zeigt die Anordnung eines derartigen Systems. Diese Anordnung wird grundsätzlich bei abbildenden (druckenden) Systemen und auch bei Sensoren für Sonderanwendungen eingesetzt. Kombiniert man den Laserscanner gemäß Abb. 4.36 mit einem telezentrischen Objektivsystem, so wird in der Abtastebene eine Abtastlinie mit konstantem Strahleinfallswinkel und eventuell konstanter Abtastgeschwindigkeit erzeugt (Abb. 4.36).
4.4 Laserscanner
203
Abb. 4.35. Scanner mit F4-Objektiv
Abb. 4.36. Scanner mit Telezentrie-Objektiv
Derartige Systeme werden häufig in der Messtechnik eingesetzt, da sich die scheinbare Bildgröße bei Änderungen des Abtastabstandes (in gewissen Grenzen) nicht verändert.
204
4 Sensoren
Entwicklungstrends Die Technik des Laserscanners hat sich in den letzten Jahren etabliert und sich trotz des optomechanischen Systems mit Antrieb und Lagerung als außerordentlich zuverlässig erwiesen. Herausragende Eigenschaften des Laserscanners sind die mit kostengünstigen Mitteln erreichbare Auflösung bzw. Schärfentiefe, die das System im Vergleich zur Zeilenkamera auszeichnen und in eine Reihe von Anwendungen vorteilhaft erscheinen lassen. Die Einsatzmöglichkeiten werden mit der Verfügbarkeit neuer LaserDioden in kürzeren Wellenlängenbereichen erweitert werden. 4.4.2 Barcode-Scanner Barcodes sind heute in vielen Bereichen zur automatischen Identifikation von Objekten aller Art eingeführt. Barcodes bestehen aus einer vereinbarten Konfiguration von Strichen unterschiedlicher Breite, die mittels aller gängigen Druckverfahren auf einen Untergrund (meistens Papier) aufgebracht sind. Abbildung 4.37 zeigt einige dieser Barcodes (auch als Strichcodierung bezeichnet), beispielsweise der auf Lebensmitteln und anderen Konsumgütern aufgebrachte EAN-Code (EAN: European Article Number). Die Aufgaben des Barcodelesers bestehen darin, die Codierung optisch berührungslos zu erfassen, zu decodieren und über eine geeignete Schnittstelle an ein Datenverarbeitungssystem weiterzugeben. Barcodeleser werden in einem weiten Umfeld und für die unterschiedlichsten Anwendungen eingesetzt und weisen somit eine Vielzahl von Ausführungsformen auf: Handscanner, festmontierte Scanner mit 1D-/2D-Abtastung, Kassenscanner mit komplexen Spiegelanordnungen zur Erzeugung eines Abtastraumes.
Abb. 4.37. Strichcodebeispiel
4.4 Laserscanner
205
Qualitätsanforderungen Während bei vielen Anwendungen in der Sensorik der Einfluss des Sensorherstellers auf die Eigenschaften des abzutastenden Objektes sehr groß ist oder aber das Sensorsystem und das Objekt in einer Applikationsuntersuchung in ihren Eigenschaften untersucht und zu einem System verbunden werden, ist es bei der Lesung von Strich- oder Matrixcodierung sehr viel schwieriger, die Performance des Gesamtsystems, bestehend aus Codierung und Lesegerät, andauernd auf hohem Niveau zu halten. Hierzu sind anfangs Codespezifikationen der AIM (Interessenverband der Hersteller von Identprodukten) erstellt worden: heute sind einige der gängigsten Codierungen/Spezifikationen als EN verfügbar. [ISO/IEC 15416, ANSI X3.182] Im Folgenden wird auf die beiden wesentlichsten Merkmale einer Codierung hingewiesen: Das Kontrastverhältnis SC (Symbol Contrast) berechnet sich aus dem maximalen Remissionsunterschied Rmax – Rmin innerhalb eines Codesymbols und sollte einen anwendungsabhängigen Mindestwert nicht unterschreiten. SC=Rmax–Rmin
Abb. 4.38. Abtastsignal einer Strichcodierung
(4.12)
206
4 Sensoren
Abbildung 4.38 zeigt das bei der Abtastung eines Barcodes erhaltene Videosignal. Daraus wird deutlich, dass sich Defekte und Breitenabweichungen eines Elementes störend auf die Auswertung einer Codeelementfolge auswirken. Wie das dargestellte Beispiel zeigt, führt eine Unterbrechung im Druck des zweiten breiten Striches fälschlicherweise zur Abtastung einer Strichfolge „1000“ anstelle von „101“. Selbstverständlich gelten diese Überlegungen in gleicher Weise für 2-D(Matrix)-Codierungen. Dies ist jedoch eine Domäne der Kamerasensoren. Durch die dort anwendbaren Verfahren der digitalen Bildverarbeitung entstehen erheblich erweiterte Lösungsmöglichkeiten. 4.4.2.1 Geräteaufbau Der grundsätzliche Aufbau eines laserbasierten Barcodelesers wird an einem Gerät für den industriellen Einsatz zur Materialflusssteuerung gezeigt. Das nachfolgende Schema zeigt die in einem Barcode-Scanner zusammengefassten Baugruppen (Abb. 4.39).
Abb. 4.39. Blockschema Barcode-Scanner
4.4 Laserscanner
207
x PS x µP
Power Supply, Versorgung der internen Baugruppen Rechnerkern, der sowohl interne Gerätesteuerung, als auch externe Datenkommunikation und Signalauswertung übernimmt. In Hochleistungsgeräten wird die Signalauswertung von einem digitalen Signalprozessor (DSP) übernommen. x LS Laser mit Steuerung x E Empfangssystem mit Steuerung x M Antriebsmotor für Spiegelrad x P-Interface Paralleles Interface für direkten Anschluss von Sensoren (Triggerelemente) bzw. Aktoren im Prozess. x S-Interface Serielles Interface zum Datenaustausch mit Prozesssteuerungen etc. Abbildung 4.40 zeigt einen Barcodeleser in einer Anwendungssituation (Lesung).
Abb. 4.40. Barcodelaser in der Anwendung
208
4 Sensoren
Abb. 4.41. Typisches Lesefeld eines Barcodelesers
Das System bietet die in Abb. 4.41 gezeigten Leistungseigenschaften, dargestellt an den erreichbaren Lesefeldern in Abhängigkeit von der Strichstärke der Codierung. Entwicklungstrends Barcodeleser werden auch zukünftig ihren Platz in der industriellen Sensorik behaupten. Dies beruht wesentlich auf den optischen Eigenschaften der Laserdiode: Nur durch deren Einsatz wird es möglich, Strahlungsbündel mit geringem Öffnungswinkel und hoher Energiedichte zu erhalten. Nur so lassen sich hohe Schärfentiefen bei gleichzeitig hoher Auflösung erzielen. Die nächsten Entwicklungsschritte dieses Sensortyps werden der Einsatz von Laserdioden im blauen Spektralbereich und weitere Erhöhung der Scangeschwindigkeit sein. Der Einsatz leistungsfähiger DSP-Architekturen (DSP: Digital Signal Processor) bietet die Möglichkeit, die Signalauswertung noch zu verbessern und damit die Toleranz der Systeme gegenüber Fehlern der Codierung weiter zu steigern.
4.4 Laserscanner
209
Die Scanner der Hochleistungsklasse sind heute bei Abtastfrequenzen -1 (Zeilenfrequenzen) von bis zu 210³ s und maximalen Auflösungen von 6 0,1 mm bei 1 m Zeilenlänge, d.h. bei einer Datenmenge von 2010 Bildpunkten/s angelangt. Dies bedeutet die Verarbeitungsleistung von 40 MB/s bis 60 MB/s bei einer Auflösung von 256 Graustufen. 4.4.3 Laser-Radar Funktionsprinzip In Abschnitt 4.3 wurden die wesentlichen Verfahren der Abstandsmessung mit optischen Sensoren erläutert, die Triangulation, die Phasenmessung und die Lichtlaufzeitmessung. Auch wenn prinzipiell alle drei Verfahren in der Kombination mit einer Scanneranordnung funktionsfähig wären, hat sich zur Darstellung des Laser-Radars das TOF-(Time of flight)- oder Lichtlaufzeit-Verfahren durchgesetzt. Abbildung 4.42 stellt schematisch das Grundprinzip vor. Die Laserdiode sendet zyklisch extrem kurze Strahlungsimpulse (T|1 ns bis 3 ns) aus, die über den Drehspiegel auf das abzutastende Objekt auftreffen und von diesem reflektiert werden. Ein Teil dieser remittierten Strahlung wird ebenfalls über den Drehspiegel und den folgenden Teilerspiegel auf das Empfangselement geführt. Das Aufbauprinzip ähnelt sehr stark dem Prinzip der Pulslaufzeitsensoren (Abschn. 4.3.2).
Abb. 4.42. Funktionsprinzip Laser-Radar
210
4 Sensoren
Wie bereits dargelegt, wird nun durch den sich drehenden Drehspiegel der Laserstrahl über die Oberfläche eines zu vermessenden Objekts geführt, so dass sich eine Folge von Abstandsmessungen ergibt (Abb. 4.43), die zunächst in Polarkoordinaten (Ursprung = Spiegelachse), oder nach Umrechnung in ein beliebiges Koordinatensystem, den Verlauf der Abtastlinie beschreiben. Mit Hilfe eines Winkelgebers am Drehspiegel ist eine geometrischen Zuordnung der Abtastwerte oder auch eine winkelbezogene Auslösung der Sendeimpulse möglich.
Abb. 4.43. Zeitdiagramm Laser-Radar (PS: Sendeimpuls, PE: Empfangsimpuls)
Besonderheiten Der Laserscanner besitzt ein einfaches und klares Funktionsprinzip für eine anspruchsvolle Aufgabe. Aufgrund der Laserschutz-Vorschriften muss sich die Sendeleistung einer Laserdiode auch im Impulsbetrieb in einem Bereich bewegen, der eine vergleichbare Dauerstrichleistung von etwa 1 mW nicht überschreitet. Die am Empfänger auftretende Empfangsleistung (optisch) PE ändert sich mit dem Abstand zum Objekt gemäß PE ~
1 . r²
(4.13)
Das bedeutet: Bei einem Messbereich des Systems, der sich zwischen dmin und dmax erstreckt, wobei dmax|100 dmin sei, wird sich das Empfangssignal aufgrund der in Gl. 4.13 angegebenen 1/r²-Abhängigkeit um 40 dB ändern. Hinzu kommt eine durch die unterschiedliche Objekt-Remission bedingte Dynamik von zusätzlich etwa 10 dB bis 20 dB.
4.4 Laserscanner
211
Bei einem so stark variierenden Empfangsimpuls ist die Bestimmung der genauen Lichtlaufzeit sehr schwierig und nur mit großen Aufwendungen in der Schwellwertbildung möglich. Die absolute Signalhöhe ist ebenfalls begrenzt, da im Gegensatz zu statischen Systemen die Empfangsapertur nicht beliebig groß gemacht werden kann. Eine Messwertverbesserung durch Mittelwertbildung (statistische Verfahren) ist bei scannenden Systemen ebenfalls nur in sehr begrenztem Umfang möglich, da sich das Ziel durch den (gleichförmig) laufenden Drehspiegel schnell verändert. Anwendung und Ausführungsformen Das Prinzip des Laser-Radars auf Scannerbasis (Abb. 4.44) wird bei der Abstandsmessung für Sicherheitsanwendungen häufig eingesetzt, insbesondere für folgenden Anwendungen:
Abb. 4.44. Aufbauschema eines Laserscanners
212
4 Sensoren
x Absicherung/Kollisionsschutz für fahrerlose Transportsysteme. x Absicherung des Umfeldes von Roboterinstallationen. x Absicherung des Vorfeldes von Türen/Toren/Durchgängen im industriellen Materialfluss. x Berührungslose Messung von Objekten auf Transportbändern. x Konturerfassung von Palettenladungen. x Konturerfassung – beispielsweise von Fahrzeugen – zur Plausibilitätskontrolle der übermittelten Fahrzeugdaten sowie zur Klassifizierung (Mautsysteme). x Durchsatzmessung von Schüttgütern auf Förderbändern (Volumenerfassung). Das von der Sendebaugruppe (Sendediode und Kollimator) ausgehende Lichtbündel wird über einen kleinen Umlenkspiegel in die Achse A – A‘ eingespiegelt und trifft dort auf den Drehspiegel. Dieser Drehspiegel hat seine Drehachse ebenfalls in der Systemhauptachse A – A‘ und ist überdies hierin um 45° gekippt. Bei der Rotation dieses Drehspiegels um die Achse A–A´ wird das Senderstrahlenbündel in der Abtastebene entsprechend abgelenkt. Mit einer derartigen Scanneranordnung ist es möglich, die Umgebung des Systems in der Abtastebene ununterbrochen über 360° abzutasten. Durch die gepulste Arbeitsweise werden jedoch Einzelpunkte (P1, P2, } usw.) in der Peripherie des Systems erfasst. Wie bereits oben ausgeführt, tastet das System in schneller Reihenfolge -1 (alle ½°) mit einer Umlaufgeschwindigkeit von 30 s die Umgebung, oder genau gesagt, einen Ausschnitt von 180° in der Abtastebene, ab und erzeugt somit bei jedem Umlauf ein neues Abstandsprofil der Abtastebene. Wird das Gerät zur Absicherung eines automatischen, fahrerlosen Fahrzeuges eingesetzt (Abb. 4.45), so wird erkannt, ob sich innerhalb eines Schutzfeldes vor diesem Fahrzeug ein Hindernis befindet. Das System wird dann die Fahrzeugbewegung verlangsamen oder gegebenenfalls stoppen. In dem vorliegenden Beispiel ist sofort ersichtlich, dass es sich bei dem vorgestellten „Hindernis“ natürlich auch um einen den Fahrweg des Fahrzeuges kreuzenden Menschen handeln kann. Aus diesem Umstand ergeben sich eine ganze Reihe von Zusatzanforderungen an ein derartiges Produkt, u.a. dass es absolut fehlersicher aufgebaut sein muss, d.h. bei allfälligen Bauteilausfällen oder anderen Defekten im Gerät muss sichergestellt sein, dass die beiden redundanten Ausgangskanäle sofort in den sicheren Zustand (Fahrzeugstopp) schalten. Tabelle 4.5 zeigt einige Leistungsmerkmale des vorgestellten Gerätes.
4.4 Laserscanner
213
Abb. 4.45. Laser-Radar an einem Fahrzeug Tabelle 4.5. Eigenschaften eines Laser-Scanners Max. Abtastwinkel Abtastwiederholfrequenz (Spiegeldrehzahl) Pulslänge der Laserdiode Wellenlänge Impulsleistung (optisch) Mittelwert der Sendeleistung Maximale Erfassungsreichweite Ansprechzeit Messfehler (systematisch) Messfehler statistisch Max. Objektremission Min. Objektremission
190° 30 s-1 2 ns bis 4 ns etwa 900 nm (NIR) 10 W 1 mW 40 m 60 ms r 5 mm r 80 mm ! 1.000% (Reflektor) 1,8%
Alle wesentlichen Betriebsparameter und umfangreiche Feldparametrierungen sind mit PC-Unterstützung programmierbar. Trotz der großen Varianz in Anwendung und Aufgabenstellung sind an dem Gerät keinerlei optische Einstellungen vorzunehmen.
214
4 Sensoren
Entwicklungstrends Das Prinzip des Laser-Radars (sowohl in statischer, als auch in dynamischer Version) erschließt sich laufend neue Gebiete. Insbesondere in der Erfassung von mittleren und großen Objekten (z.B. in der Logistik bzw. im Verkehrswesen) ergeben sich neue Anwendungen. Hierzu tragen insbesondere folgende Vorteile bei:
x Verfügbarkeit und Preiswürdigkeit von Laserdioden. x Verfügbarkeit und Preiswürdigkeit der für komplexe Aufgaben notwendigen Rechnerleistung. x Verfügbarkeit von digitalen Schaltungen zur Auswertung (extrem hohe Taktfrequenzen von 2 GHz bis 3 GHz). x Systembedingte Unempfindlichkeit und Toleranz des Verfahrens gegenüber Objekteigenschaften (Minimalremission bis herunter zu 1% bis 2%). Zielsetzung der weiteren Entwicklungen in diesem Produktsegment sind die Miniaturisierung und die gesteigerte Leistungsfähigkeit.
4.5 Kamerasensoren Das Feld der kamerabasierten Sensorik hat sich in den letzten Jahren rasch entwickelt und ist aus dem Stadium der allgemeinen Bildverarbeitung in die Serienanwendung der industriellen Sensorik eingetreten. Merkmal einer Bildverarbeitungsanwendung waren bisher die Kombination von PC, Kamera und Beleuchtungsvorrichtung und die aufgabenspezifische Erstellung einer umfangreichen Software zur Signalauswertung. Ein moderner Kamerasensor integriert alle diese Funktionen in einem Gerät. Die nachfolgenden Faktoren haben zur Entstehung preiswerter Geräte wesentlich beigetragen:
x Umfangreiches Angebot an Zeilen- und Matrixsensoren auf CCD- und CMOS-Basis (CCD: Charge Coupled Device; CMOS: Complementary Metal Oxide [insulated gate] Semiconductor). x Embedded-RISC-Rechner mit der Leistungsfähigkeit von PCs mit gleichzeitig geringer Leistungsaufnahme (RISC: Reduced Instruction Set Computer). x Leistungsfähige LEDs und damit die Möglichkeit der Ausführung kamera-integrierter Beleuchtungsanordnungen (LED: Light Emitting Diode).
4.5 Kamerasensoren
215
Die nachstehend ausgeführten Beispiele weisen folgende Merkmale auf:
x Integration von Bildaufnehmer, Auswerterechner und Beleuchtung zu einer einzigen, kompakten Baueinheit. x Integrierte, teilweise aufgabenspezifische Software. Ausgehend von den vielfältigen Möglichkeiten der Kamerasensoren kann mit Bezug auf deren Funktions- bzw. Auswerteprinzip eine Systematik nach Abb. 4.46 angewendet werden. Damit ergibt sich automatisch die in den Abschn. 4.5.1 bis 4.5.3 angewandte Unterteilung von 1-D- bis 3-DSensoren („D“ steht hier für „Dimension“ und soll als Basis für eine Klassifizierung dienen). Kamerasensoren
1-D ( 1-dimensional)
2-D ( 2-dimensional)
3-D ( 3-dimensional )
Diodenzeile
CCD / CMOS - Matrix
CMOS – Matrix ( Highspeed
Sensor
Sensorfunktion
Koordinate
Abstandssensor auf Triangulationsbasis
Z
Grauwertsensor
X-R
Abstandsensor auf Triangulationsbasis > Lichtschnittsensor
X-Z
Grauwertsensor „Bildsensor“
X-Y-R
Abstandssensor auf TOF – Basis ( Singlepulse oder CW )
X-Y-Z
Abb. 4.46. Übersicht Kamerasensoren
Die in Abb. 4.46 vorgenommene Klassifizierung beruht auf folgender Vorstellung: Jeder Punkt einer Szene wird durch das Abbildungssystem auf eine Ebene abgebildet. (Einfachste und anschaulichste Anordnung dieser Art ist die Camera obscura). In der Szene können wir einen Punkt durch seine Remission und die Koordinaten x, y und z kennzeichnen. In der Empfangsebene können wir das Bild jedes Objektpunktes ebenfalls mit den Koordinaten x', y', z' und seiner Helligkeit (Strahlungsenergie) I' kennzeichnen. Diese Intensität wird maßgeblich von der Intensität der Beleuchtungsquelle und der Remission abhängen. Die Koordinate z' wird in aller Regel konstant sein (ebener Bildsensor). Bei der Abbildung eines räumlichen Objektes wird die Koordinate z' eines Bildpunktes verloren gehen. Will man die Koordinate z' erfassen, müssen besondere Auswerteverfahren verwendet werden (Abschn. 4.5.3).
216
4 Sensoren
Die in Abb. 4.47 schematisch angedeutete Anordnung besteht aus:
x x x x
Matrixsensor Abbildungsobjektiv, Beleuchtungsquelle, Objekt(-ebene).
Bei der Erfassung von Form und Umriss kleiner Objekte braucht man sehr häufig eine flächenhafte Hintergrundbeleuchtung.
Abb. 4.47. Schema Matrixsensor
4.5.1 1-D-Sensoren 1-D-Kamerasensoren auf der Basis eines zeilenförmigen Empfangselements werden industriell für eine Reihe von Anwendungen eingesetzt:
x x x x
Barcodelesen. Entfernungsmessung (Triangulationsprinzip). Überwachung von laufenden Materialbahnen auf Fehler. Messung von Teilen in Bewegung (z.B. Durchmesserkontrolle von Drähten, Extrusionsprofilen). x Erfassung von Bahnkanten zur Mittenregelung. x Erfassung von Materialschlaufen zur Wickelregelung.
4.5 Kamerasensoren
217
Beispielhaft für diese Anwendungen wird im Folgenden ein typischer 1-D-Sensor zur Barcodelesung vorgestellt. Barcodeleser Barcodeleser erfassen Strichcodierungen in einem relativ engen Abstandsbereich. Das gezeigte Gerät integriert einen Fotodiodenzeilen-Empfänger, eine Beleuchtungsvorrichtung sowie den Mikro-Rechner zur Auswertung der Zeileninformation und zur Gerätesteuerung. Prinzipiell entspricht dies dem in Abb. 4.39 gezeigten Blockschema für einen Laserscanner. An die Stelle von Motor/Lasersender/Empfangselement treten Fotodiodenzeile und Beleuchtungsvorrichtung. Abbildung 4.48 zeigt das Gerät an einer Produktionslinie. Erfasst wird hier der an einem Geräteträger angebrachte Barcode. Die Erfassung des Barcodes wird hier dazu verwendet, die dementsprechenden Produktionsschritte bzw. der auf dem Geräteträger befindlichen Gerätetype zugeordneten Messgeräte einzustellen. Besonderheiten dieses Gerätetyps sind die limitierte Schärfentiefe (ca. r 10 mm bei einer Modulbreite des Codes von 0,2 mm und einem SollLeseabstand von etwa 35 mm). Diese Geräteart weist eine sehr große Unempfindlichkeit gegenüber Fremdlicht auf.
Abb. 4.48. Barcodeleser an einer Produktionslinie
In diesem Fall ist eine Umgebungshelligkeit mit einer Beleuchtungs-1 stärke bis zu 100.000 lx zulässig. Die Leserate ist mit 500 s relativ hoch. Die integrierte Beleuchtungseinrichtung besteht aus einer LED-Zeile mit der Wellenlänge 630 nm.
218
4 Sensoren
Prinzipiell ist ein derartiger Sensor beispielsweise auch für die Kantenerfassung von Materialbahnen geeignet. Mit einer Beleuchtungseinrichtung für Durchlichtbetrieb können auch einfache Prüfvorgänge (z.B. Durchmessererfassung von Drähten) durchgeführt werden. 4.5.2 2-D-Sensoren 2-D-Sensoren auf der Basis eines matrixförmigen Empfangselementes (Anordnung entsprechend Abb. 4.47) werden für folgende Anwendungen eingesetzt:
x Teileerfassung auf Transportbändern zur Identifikation der Position/Drehlage (Sensor zu Steuerung von nachfolgenden Greifersystemen). x Vollständigkeitskontrolle von Verpackungseinheiten. x Objektidentifikation anhand von Objektumrissen. x Fehlerüberwachung beispielsweise an Stanzteilen (z.B. Grat, Ausbrüche, fehlende Lochung). x Bestückungskontrolle von Elektronikbaugruppen. x Identifikation und Datenerfassung anhand von 2-D-Matrix-Codierungen. Kamerasensoren Integrierte Kamerasysteme (Abb. 4.49) ermöglichen, eine Reihe der oben genannten Erfassungsaufgaben schnell und effizient zu lösen. Dieses Kamerasystem besteht aus einer integrierten Kamera-/Beleuchtungseinheit, die mittels eines Bediengeräts vollständig autark parametriert werden kann
Abb. 4.49. Kamerasystem an einer Produktionslinie
4.5 Kamerasensoren
219
und ohne weitere Hilfsmittel die geforderten Aufgaben löst. Das Kamerasystem überwacht, ob alle Teile bearbeitet (geschliffen) sind, oder ob sich in den Trägern noch Rohteile befinden. 4.5.3 3-D-Sensoren Aus den vielseitigen Einsatzgebieten werden folgende genannt:
x Erfassung der Form von Gießformen zur Qualitätssicherung. x Erfassung von Personen in sicherheitsrelevantem Bereich zum Schutz in gefährlichen Bereichen an Maschinen. x Erfassung von kleinen Objekten in Verpackungen zur Vollständigkeitskontrolle. x Erfassung von Schüttgütern zur Robotergreifesteuerung. x Analyse der Kontur einer Palettenladung, ebenfalls zur Robotersteuerung oder zur Optimierung des Ladungsbildes. x Bestückungskontrolle von elektronischen Baugruppen. Artverwandt, jedoch eindeutig in das Feld der 3-D-Meßtechnik gehörend, sind Aufgaben wie:
x Vermessung von Kfz-Teilen (Karosserie, Gehäuseteile) oder x Vermessung von Kunststoffspritzteilen. 3-D-Sensoren beruhen auf zwei verschiedenen Prinzipien:
x Stereometrie (geometrischer Ansatz) oder x Lichtlaufzeitmessung (geometrischer Ansatz mit aktiver Beleuchtungsvorrichtung). Stereometrie Stereometrische Verfahren verwenden zwei getrennte abbildende Systeme (Abb. 4.50). Die Anordnung zeigt zwei abbildende Systeme mit dem Basisabstand B, der in Abhängigkeit von der Objektlage D eine Bildverschiebung verursacht. In Abb. 4.50 ist nur eine Ebene des Sensors dargestellt. Die Zusammenhänge gelten für die x- und y-Richtung gleichermaßen. Wie aus Abb. 4.50 ersichtlich ist, handelt es sich bei dieser Anordnung prinzipiell um einen Triangulationssensor.
220
4 Sensoren
Abb. 4.50. Stereokamera
Das Objekt muss kein freistehendes Objekt sein. Es ist ebenso denkbar, eine Objektkante oder andere Unregelmäßigkeiten zur Abstandsermittlung zu nutzen. Wie bei allen Triangulationssensoren sind folgende Besonderheiten ersichtlich: Mit der vereinfachten Abhängigkeit
h b h: B: D: B:
B oder D D
B f . b
(4.14)
Höhe des Bildpunktes in Sensorebene Bildpunktabstand von Projektionspunkt Objektpunktabstand von Projektionspunkt Abstand der Projektionspunkte: „Basis“
ergibt sich:
dD dh
D² . B b
Damit wird die Ungenauigkeit des Objektabstandes D:
'D
D² 'h , B b
mit h als Pixelabstand des Sensorelements.
(4.15)
4.5 Kamerasensoren
221
Das bedeutet, dass die Entfernungsauflösung (bei gegebenem h) mit steigendem Abstand D schlechter wird. Für Sensoren mit großem Messabstand D müssen sowohl für die Messbasis B als auch für den Bildpunktabstand b möglichst große Werte gewählt werden. Objekte ohne Merkmale (z.B. homogene Flächen) sind für einen Stereosensor nicht erfassbar. Man hilft sich hier mit alternativen aus dem Bereich der Moirétechnik entliehenen Methoden, wie beispielsweise der Projektion eines Musters auf solche Flächen. Moirétechnik Tauscht man in Abb. 4.50 den Sensor A gegen einen (steuerbaren) Projektor, der die Oberfläche des Objektes mit einem eindeutigen, bekannten Muster beleuchtet, so erhält man einen Sensor, der ebenfalls die Entfernungsmessung nach dem Triangulationsprinzip gestattet. Diese Sensorart weist folgende Vorteile auf:
x Die Struktur des auf die Oberfläche projizierten Musters kann frei gewählt werden. Bei bekanntem Intensitätsverlauf kann interpoliert werden. x Auch völlig strukturfreie Oberflächen sind erfassbar. x Durch die Manipulierbarkeit der Beleuchtungsstruktur sind Bildteile selektiv vermessbar. Lichtlaufzeitmessung
Abb.4.51. 3-D-Lichtlaufzeitmessung
222
4 Sensoren
Abb. 4.51 zeigt die prinzipielle Funktion der Lichtlaufzeitmessung zur Erfassung von Oberflächenformen. Der Sensor besteht aus einem Matrix-Empfangselement, einem schnellen Shutter (Verschluss) und einer, die Szene beleuchtenden Laserdiode. Die Laserdiode wird zyklisch für eine bestimmte Zeit t angesteuert. Gleichzeitig wird der Shutter geöffnet. Man wählt die Zeit t etwa so groß wie die gesamte Lichtlaufzeit (Laserdiode o Objekt o Empfänger). Nach Ablauf der Zeit t wird der Shutter wieder geschlossen. Der von der Laserdiode ausgehende Lichtimpuls wird aufgrund des Abstandes des reflektierenden Objektpunktes verzögert und aufgrund dieser Zeitverschiebung mehr oder weniger lange vom Sensor erfasst. Dies hinterlässt einen der Lichtlaufzeit, d.h. dem Objektabstand umgekehrt proportionalen Lichteindruck. Die auf dem Sensor befindliche Ladung ist ein Maß für den Abstand des Objektpunktes. Nebeneffekte wie Fremdlicht bzw. unterschiedliche Remissionsgrade der Objektfläche kann man durch Normierung ausschalten. Abbildung 4.52 zeigt die vorstehend beschriebene Funktion als Zeitdiagramm.
Abb. 4.52. Zeitdiagramm Lichtlaufzeitmessung
Die 3-D-Sensorik befindet sich in einer raschen Entwicklung. Momentan sind noch nicht alle Komponenten in Serie industriell verfügbar. Es ist jedoch damit zu rechnen, dass dies in den nächsten Jahren der Fall sein wird und die 3-D-Sensorik vermehrt Einzug in die industrielle Anwendung erhält. Einige der momentan mit 2-D-Kamera-Sensoren gelösten Aufgabenstellungen sind für die 3-D-Sensorik prädestiniert und werden von dieser abgelöst werden.
4.6 Optische Sensoren für spezielle Anwendungen
223
4.6 Optische Sensoren für spezielle Anwendungen Im folgenden Abschnitt werden beispielhaft zwei Sensoren vorgestellt, deren Aufgabenstellung und Anwendungsfeld verschieden sind. Während sich die bisher beschriebenen Sensoren hauptsächlich mit der Erkennung beispielsweise von Formen, Farbe, Anwesenheit, Entfernung, Identität von Objekten (oder Personen) befasst haben, gibt es eine weitere Gruppe von optischen Sensoren, die zur Erfassung von Stoffeigenschaften oder zur chemischen Analyse bzw. zur Konzentrationsmessung in Stoffgemischen herangezogen werden. Die Bandbreite dieser Sensoren reicht vom einfachen Überwachungsgerät (z.B. zur Sauerstoffgehaltsmessung im Blut) bis zu komplexen Analysesystemen zur hochgenauen Analyse komplexer Stoffgemische. In vielen Fällen werden hier spektrometrische Verfahren benutzt Abbildung 4.53 zeigt beispielhaft die Breite des Einsatzfeldes der spektrometrischen Verfahren, diese reicht von einfachsten Sensoren zur Messung des Sauerstoffgehaltes im Blut bis hin zu komplexen Laboranalysesystemen. Ein wesentliches Hilfsmittel zur Untersuchung von Reaktionen im molekular-biologischen Umfeld sind beispielsweise die Erfassung von Fluoreszenzerscheinungen, die bei chemischen Reaktionen auftreten. Diese Art der Sensorik ist bei automatisierten Analysesystemen ein unverzichtbares Hilfsmittel, da sie es gestattet, Reaktionen sehr viel schneller und vor allem im Ablauf zu beobachten, ohne im nachhinein aufwändige Analysemethoden einsetzen zu müssen. Für die Darstellung spektralanalytischer Methoden und der Fluoreszenzanalyse wird auf die einschlägige Literatur verwiesen. Aufgrund ihres
Abb. 4.53. Spektrometrische Sensoren zur Stoffanalyse
224
4 Sensoren
Einsatzfeldes in der industriellen Umgebung und ihrer Verwandtschaft zu einigen in den vorangegangenen Abschnitten vorgestellten Sensoren werden im folgenden zwei Anwendungen aus der Schadstoffüberwachung näher beschrieben. 4.6.1 Staubkonzentrationsmessung Aufgabenstellung In vielen industriellen Prozessen fallen staubförmige Reststoffe an, die in aller Regel durch eine Gasströmung transportiert und ausgefiltert werden. Bekannte Beispiele hierfür sind die von einem konventionellen Kraftwerk mit dem Abgas ausgestoßenen staubförmigen Schadstoffe (hauptsächlich kleinste Asche-, also mineralische Teilchen) oder der Ausstoß kleinster Rußpartikel aus Dieselmotoren. Aber auch andere industrielle Prozesse, wie die Zementfabrikation oder das Aufbereiten mineralischer Grundstoffe erzeugen solche (teilweise toxischen) Stäube. Abhängig von der zu erfassenden Staubkonzentration haben sich zwei Messverfahren etabliert. Absorptionsmessung Das staubbeladene Gas wird mit einem Strahlenbündel durchleuchtet. Die durch die Staubpartikel eintretende Strahlungsschwächung längs des Lichtweges wird zur Ermittlung der Staubkonzentration herangezogen (Abb. 4.54). Aus dem Verhältnis der beiden Strahlungsintensitäten wird auf die Staubbeladung geschlossen.
Abb. 4.54. Prinzipschema Absorptionsmeßgerät
4.6 Optische Sensoren für spezielle Anwendungen
225
Abbildung 4.54 zeigt die wesentlichen Bestandteile einer Absorptionsmessung:
x Strahlungsquelle, x Messkanal, x Strahlungsempfänger mit Signalauswertung. Nach dem Lambert-Beer`schen Gesetz wird die Strahlungsleistung infolge von Absorption und Streuung beim Durchlaufen des Gases exponentiell geschwächt:
) 1 ) 0 e k l k:
(4.16)
Extinktionsskonstante, kennzeichnet die Eigenschaften des Mediums
absorbierenden Mediums Länge der absorbierenden Strecke : Strahlungsleistung am Eintritt in die absorbierende Strecke ĭ0 : ĭ1 Strahlungsleistung am Austritt der absorbierenden Strecke
l:
Die Extinktionskonstante
k
1 )0 ln l )1
(4.17)
ist nach dem Lambert-Beer'schen Gesetz proportional zur Konzentration der absorbierenden und streuenden Partikel. Es ist möglich, über die Messung der Absorption die Konzentration eines Schadstoffes in dem betrachteten Messvolumen zu bestimmen. In der Anwendung dieser einfachen Zusammenhänge gibt es jedoch eine Reihe von Einflüssen, die viele zusätzliche Korrekturen (Annahmen bzw. Kalibrierungen) notwendig machen. Folgende Anforderungen müssen gestellt werden:
x Thermische Stabilität sowie Degradationsfreiheit der im System befindlichen Sende- bzw. Empfangselemente. x Verhinderung der Verschmutzung der optischen Grenzflächen. x Die einfache Absorptionsannahme gilt nur, wenn keine Streueffekte o.ä. vorhanden sind, d.h. bei Absorptionskörperquerschnitten dO oder bei einem Kontinuum. x Die optische Ausrichtung von Strahlungssender oder -empfänger darf sich nicht verändern, es sei denn die Strahlquerschnitte werden homogen ausgeleuchtet bzw. die Empfindlichkeit des Empfängers ist flächenbezogen konstant.
226
4 Sensoren
Abbildung 4.55 zeigt ein industrielles Gerät, das auf der Basis der Absorptionsmessung die Staubbeladung von Abgasströmen in der Kraftwerkstechnik misst.
Abb.4.55. Staubgehaltsmessgerät
Das dargestellte Gerät misst in situ (d.h. angebaut an den Schadgaskanal, durch diesen hindurch) den Staubgehalt von Abgasen. Es handelt sich hier um ein Transmissiometer nach dem Autokollimationsprinzip, d.h. am Ende der Messstrecke befindet sich ein justageunempfindlicher Tripel-Reflektor, während Strahlungssender und – empfänger am Anfang der Messstrecke in einem Gehäuse zu einer kompakten Baueinheit zusammengefasst sind. Den prinzipiellen Aufbau zeigt Abb. 4.56. Ohne näher auf die Datenblattwerte einzugehen, seien nachfolgend einige Kennwerte bzw. Eigenschaften des Gerätes genannt:
x Messung mit einer Wellenlänge von O = 590 nm (gepulst). x Getrennte Empfänger für Messlicht und Referenz, damit weitgehende Überwachung interner Verschmutzung und Degradation. x Messstreckenlänge von 0,5 m bis 15 m. x Kleinster Messbereich: Extinktion 0,1 (# Transmission 80%) bei einer Genauigkeit von r 4% des Messbereiches. x Integrierte schwenkbare Messfilter zur laufenden Kontrolle des Messsystems. x Messbereiche und Funktionalität in weiten Bereichen parametrierbar. x Umfangreicher Schutz gegen Einflüsse von Rauchgas (Temperatur bis zu 500° C).
4.6 Optische Sensoren für spezielle Anwendungen
227
Abb. 4.56. Transmissiometer
Streulichtmessung Ein grundsätzlich anderes Verfahren ist die Streulichtfotometrie. Sie beruht drauf, dass eine in ein optisch inaktives Medium eindringende Strahlung an Partikeln, die sich in diesem Medium befinden, gestreut wird. Eine geschlossene Theorie zu den oben genannten ist außerordentlich unübersichtlich. Gründe hierfür sind folgende Einflüsse:
x x x x x
Wellenlänge des einstrahlenden Lichtes. Größe, Form/Gestalt der Streupartikel. Mehrfachstreuung. Farbe der Partikel. Brechungsindex der Partikel.
Trotz diesen gravierenden Abhängigkeiten kommt man in der Messung des Staubgehaltes von (gering) belastetem Schadgas durch Kalibrierung, d.h. durch Vergleich mit gravimetrischen Methoden, zu brauchbaren Messergebnissen. Ein Gerät, welches das Streulichtprinzip ausnutzt, ist in Bild 4.57 schematisch dargestellt.
228
4 Sensoren
Abb. 4.57. Funktionsprinzip eines Staubgehaltsmessgerätes
Die Aufgabenstellung für Staubgehaltsmessgeräte ist die Erfassung sehr geringer Staubanteile in einem Abgasstrom, der bereits gefiltert wurde. Abbildung 4.57 zeigt schematisch die optische Anordnung: Von einer Strahlungsquelle (1) ausgehend wird ein Lichtbündel erzeugt und in den Rauchgaskanal gesendet. An der Stelle (2) schneiden sich die optischen Bündel des Sendekanals und des Empfangskanals, der das im Messvolumen (2) aufgestreute Licht über den Empfangskollimator (3) und den Empfänger (4) erfasst. Ist das den Kanal durchströmende Abgas völlig staubfrei, wird das Sendelicht in einem Absorber (5) aufgefangen. Das vom Empfänger aufgenommene Messsignal wird über einen eingebauten Rechner verarbeitet und entsprechend einer zu erstellenden Kalibrierfunktion in Staubgehalt (mg/m³) umgerechnet. Die Messwertverarbeitung kann auch weitere Aufgaben übernehmen, beispielsweise eine Grenzwertbildung.
4.6 Optische Sensoren für spezielle Anwendungen
229
Abb. 4.58. Absorptionskurve HCl
4.6.2 Gaskonzentrationsmessung In vielen industriellen Prozessen wird nicht nur staubbeladenes Abgas ausgestoßen. Vielmehr enthalten die Abgase sehr oft auch gasförmige toxische Anteile. So ist zum Beispiel ein wesentlicher toxischer Anteil bei der Verbrennung von fossilen Brennstoffen Schwefeldioxid (SO2). In der Müllverbrennung entsteht bei der Verbrennung von PVC Salzsäure (HCl). Die Spektrometrie bietet hier die Möglichkeit, auf einfache Weise und berührungslos die Konzentrationen solcher Schadgase in Abluftströmen zu erfassen. Auch bei der Analyse von verunreinigtem Wasser wird mit der Spektralanalyse die Konzentration von Schadstoffen gemessen. Das Funktionsprinzip der Spektralanalyse wird im folgenden kurz erläutert, für weitergehende Informationen wird auf Spezialliteratur verwiesen. Funktionsprinzip Molekularstrukturen können in Wechselwirkung mit einer elektromagnetischen Strahlung zu charakteristischen Schwingungen angeregt werden. Ebenso ist es möglich, die Elektronenhülle eines Atoms in Wechselwirkung mit einer elektromagnetischen Welle in bestimmte (vom Grundniveau verschiedene) Anregungszustände zu bringen. Diese Vorgänge bedeuten, dass die Anregungsenergie der elektromagnetischen Welle, die den Stoff durchdringt, entnommen, also absorbiert wird. Die diskreten Energieniveaus solcher Anregungszustände haben zur Folge, dass die anregende elektromagnetische Welle diese charakteristischen Frequenzen enthalten muss, um das Atom (oder Molekül) in einen solchen angeregten Zustand zu bringen. Die für die Anregung des Atoms (oder Moleküls) notwendige Energie wird dem Strahlungsfluss entzogen.
230
4 Sensoren
Abbildung 4.58 zeigt die Absorption eines HCl-Moleküls im infraroten Strahlungsbereich um 3 µm. Die Absorption ist proportional der Konzentration des Gases in einem Gasstrom. Auf diesem Prinzip beruhen Spektralfotometer, die beispielsweise zur Analyse eines Abgasstromes eingesetzt werden. Es sie hier erwähnt, dass sich die zur Analyse eines Abgasstromes zur Verfügung stehenden Wellenlängen über einen großen Bereich von UV bis zu einem fernen IR erstrecken. Ausgehend von der Aufgabenstellung und der möglichen Gemischzusammensetzung wird man den entsprechenden Frequenzbereich für die Messung wählen. Ein spektralfotometrisch arbeitendes Gasanalysegerät wird im folgenden dargestellt. Funktionsprinzip Gasanalysator Eine Deuteriumlampe (Abb. 4.59, 1) erzeugt ein im UV liegendes Strahlenbündel, das den Abgaskanal (5) durchtritt, am Reflektor (3) zurückgeworfen wird und über den Strahlteiler (2) in einen Gitter-Monochromator (4) eintritt. Die Welle (O = 217 nm bis 245 nm) wird am Gitter gebeugt und je nach Wellenlänge auf die verschiedenen Pixel der Diodenzeile geworfen. Aus der Absorption diskreter Wellenlängen wird auf die Schadstoffkonzentration im Abgas (in diesem Fall NO, SO2, NH3 bzw. NO2) geschlossen. Auch hier werden über den eingebauten Rechner die Messwertverrechnung bzw. die Funktionssteuerung des gesamten Systems ausgeführt. Abbildung 4.60 zeigt das an einer Messstelle eingesetzte Gerät.
Abb. 4.59. Schema eines Spektralphotometers zur Gasanalyse
4.7 Literatur
Abb. 4.60. Einsatz eines Gaskonzentrationsmessgerätes
4.7 Literatur ANSI x.3 182 ISO/IEC 15416 Lenk B (2002) Handbuch der automatischen Identifikation Palmer R. C (2004) The BarCode Book Schilling F (2001) Optik und Spektroskopie. Harri Deutsch, Thum www.aimglobal.org www.sick.de
231
5 Optische Messtechnik
In der optischen Messtechnik werden optische Signale in elektrische umgewandelt oder umgekehrt. Die optische Messtechnik bietet folgende große Vorteile: sie ist berührungslos und schnell (Messungen geschehen in Lichtgeschwindigkeit). Deshalb eignet sie sich hervorragend für direkte Messungen während des Prozesses und erlaubt beispielsweise onlineMessungen zur Qualitätssicherung während des Fertigungsprozesses. Aus diesem Grunde spielt die optische Messtechnik für die Prüfverfahren im Qualitätsmanagement eine bedeutende Rolle. Im Folgenden werden die wichtigsten physikalischen Mess-Größen, ihre Mess-Prinzipien und ihre typischen Anwendungen vorgestellt (Abb. 5.1). In Abschn. 5.9 wird die interferometrische Submikrometer-Messtechnik als Beispiel für ein wichtiges Anwendungsfeld in der Automobilindustrie vorgestellt.
Abb. 5.1. Physikalische Messgrößen und ihre Mess-Verfahren
5.1 Abstandsmessung Für die Abstands- und Längenmessung werden hauptsächlich zwei Verfahren eingesetzt, für eine mittlere Genauigkeit das Verfahren der Triangulation und für hochgenaue Messungen interferometrische Verfahren, welche die Welleneigenschaften des Lichtes ausnützen.
234
5 Optische Messtechnik
5.1.1 Triangulation Messprinzip Bei dem Triangulationsverfahren wird die Länge einer Seite eines Dreiecks aus einem Winkel und einer anderen Seite bekannter Länge bestimmt. Dabei wird ein Laserstrahl auf ein Werkstück gerichtet. Das auf der Oberfläche des Werkstücks diffus in alle Richtungen gestreute Laserlicht wird unter einem vorgegebenen Winkel mit einem Objektiv auf einen positionsempfindlichen Detektor (PSD) abgebildet (Abb. 5.2).
Abb. 5.2. Messprinzip der Triangulation
Verschiebt man das Werkstück, so verändert sich die Position des reflektierten Leuchtflecks auf dem Detektor. Aus der Lage des Bildfleckes auf dem PSD lässt sich bei der bekannten Abbildungsgeometrie der Abstand des Messobjekts in Bezug auf einen Referenzabstand bestimmen. Als Lichtquelle wird meist eine Leuchtdiode (LED) oder ein Halbleiterlaser eingesetzt. Diese bieten den Vorteil einer einfachen Steuerung der Intensität. Mittels einer Austastung bzw. hochfrequenter Modulation des Laserlichts lässt sich Fremd- und Störlichtunterdrückung realisieren. Es ist
5.1 Abstandsmessung
235
damit auch möglich, schnell bewegte Objekte anzutasten. Als Detektoren verwendet man in der Praxis Lateraleffektfotodioden oder CCD-Diodenzeilen, bei scannenden Systemen auch CCD-Bildsensoren. Typische Anwendungen Triangulationssensoren werden in vielfältiger Weise in der Prozesskontrolle und Qualitätssicherung eingesetzt. Die direkte Messung des Abstandes erlaubt es, geometrische Größen an festen und bewegten Werkstücken unmittelbar zu messen. Folgende Eigenschaften werden gemessen (Abb. 5.3): x x x x x
Ebenheit von Platten und Bauteilen, Rundlauf rotierender Bauteile, Dickenmessungen von Bandmaterial, Füllstandsbestimmung, Bestimmung der Profilkontur von Werkstücken mit gegenüberliegenden Sensorköpfen, x Einsatz als berührungsfrei tastender Messkopf bei Koordinatenmessmaschinen, x Anwesenheitskontrolle von Bauelementen auf Platinen.
Abb. 5.3. Anwendungsbeispiele für das Triangulationsverfahren
Genauigkeit Die Empfindlichkeit des Triangulationssensors ist innerhalb seines Messbereiches nicht konstant; sie ist umso geringer, je weiter das Messobjekt vom Laser entfernt ist. Die Arbeits- bzw. Referenzabstände typischer, industriell eingeführter Triangulationssensoren reichen von 20 mm bis 1.000 mm. Der Messbereich liegt dabei zwischen r1 mm und r250 mm und ist in etwa symmetrisch um die Referenzabstände. Die Auflösung liegt, je nach Arbeitsabstand, zwischen 1 Pm und 500 Pm. Allgemein ist
236
5 Optische Messtechnik
davon auszugehen, dass die Genauigkeit der Abstandsinformation besser ist als das 0,001-fache des Arbeitsabstandes zo. 5.1.2 Inkrementalgeber Triangulationssensoren werden eingesetzt, wenn einerseits eine relativ freie Führung gewährleistet ist und zum anderen die Möglichkeit besteht, berührungslos antasten zu können. Sollen in Maschinen oder Geräten jedoch geführte Bewegungen hochgenau erfasst werden, so verwendet man Inkrementalgeber oder Interferometer. Beiden gemeinsam ist das Merkmal, einen sehr großen Messbereich (bis mehrere m) bei einer Messauflösung im Bereich von 10 µm bis zu 1 nm erfassen zu können. Preisgünstige, aber dennoch sehr leistungsfähige Systeme finden beispielsweise in Tintenstrahldruckern zur Positionierung des Druckkopfes und des Papiervorschubes Verwendung. Absolute und inkrementelle Systeme Inkrementelle Systeme messen von einer gegebenen Position ausgehend (Anzeige wird hier genullt) den Zuwachs des Weges (vorzeichenrichtig), wohingegen absolute Systeme jederzeit die Position gegenüber einem festen Koordinatenursprung kennen. Am einfachsten erhält man ein absolut messendes Systemerhalten, wenn zusätzlich zu der Gitterteilung der Maßverkörperung ein Index angebracht wird, der bei Überfahren den Zähler auf Null setzt bzw. die Messung triggert. Wesentlich sicherer sind jedoch Systeme, deren Maßstäbe eine absolute Kodierung für die Position besitzen (z.B. mit einem Binärkode). Befinden sich beispielsweise 14 14 Spuren nebeneinander, dann sind 2 = 16.384 diskrete Positionen unterscheidbar. Kann die letzte, feinste Spur noch durch Interpolation in 100 Schritten pro Periode unterteilt werden, so kommt man schon auf 1.638.400 unterscheidbare Positionen. Ein Maßstab von 1,6 m Länge wäre also auf 1 µm genau auslesbar. Messprinzip Inkrementalgeber bestehen aus einer Maßverkörperung, beispielsweise einem schmalen, langen Streifen aus Floatglas, auf den eine sehr genaue, regelmäßig Teilung aus gleich breiten, opaken und transparenten Streifen aufgebracht ist, sowie einem Messkopf zur fotoelektrischen Registrierung der Teilung. Es existieren viele unterschiedliche Bauformen für den Messkopf, mit im Detail unterschiedlichen Wirkprinzipien.
5.1 Abstandsmessung
237
Abb. 5.4. Arbeitsprinzip eines Inkrementalgebers für ein absolutes Längenmessgerät (Werkfoto: Heidenhain)
Abbildung 5.4 zeigt schematisch das Messprinzip des Inkrementalgebers nach dem Prinzip der fotoelektrischen Abtastung feiner Strichgitter. Dabei werden die Änderungen der Lichtintensitäten einer Abtastplatte im Vergleich zu einem Maßstab durch Fotozellen gemessen und daraus beispielsweise Längen oder Positionen ermittelt. In Abb. 5.4 ist das Prinzip für ein absolutes Längenmessgerät dargestellt. Dabei werden 7 Teilungs-
Abb. 5.5. Einsatz eines Inkrementalgebers zur Prüfung und Kalibrierung des dynamischen Bahnverhaltens von Werkzeugmaschinen (Werkfoto: Kreuzgitter-Messgerät KGM 182 von Heidenhain)
238
5 Optische Messtechnik
spuren abgetastet. Sie sind so gewählt, dass aus den resultierenden MessSignalen aller Spuren eindeutig ein Bereich innerhalb der Messlänge definiert ist. Aus der feinsten Teilungsspur von 16 Pm lässt sich beispielsweise über eine Länge von 3 m ein Absolutwert mit einer Auflösung von 0,1 Pm realisieren. Mit solchen Inkrementalgebern können, wie Abb. 5.5 zeigt, beispielsweise die Positioniergenauigkeiten (bzw. den Führungsfehler) bzw. das dynamische Bahnverhalten CNC gesteuerten Werkzeugmaschinen bestimmt werden. Das dargestellte Kreuzgitter-Messgerät kann beispielsweise Kreisform-Tests von 115 mm bis 1 Pm bei Bahnvorschüben bis zu 80 m/min berührungslos bestimmen. 5.1.3 Interferometer Messprinzip Das Grundprinzip eines Interferometers kann anhand Abb. 5.6 beschrieben werden.
Abb. 5.6. Schema eines Laser-Interferometers zur Längenmessung
Bezeichnungen: PSt – Polarisationsoptischer Strahlteiler; St – Strahlteiler; S – Spiegel, AOM – akusto-optischer Modulator; TP1 – feststehendes Tripelprisma; TP2 – bewegliches Tripelprisma; O/4 – Lambdaviertel-Plättchen zur Erzeugung zirkular polarisierten Lichtes; P – Polarisator; PPD - Pin-Photodiode; FG – Frequenzgenerator (treibt den AOM). Abbildung 5.6 zeigt eine Vorrichtung zur vorzeichenrichtigen, hochgenauen Messung der Verschiebung des Tripelprismas TP2 entlang einer Führung. Das Grundprinzip der Interferometrie beruht auf der Tatsache, dass bei der kohärenten (interferenzfähigen) Überlagerung von zwei Strahlen immer dann Verstärkung der gemessenen Intensität registriert wird, wenn die Lichtwege in den Interferometerarmen (gebildet durch den Strahlteiler PSt und die beiden Tripelprismen TP1 und TP2) sich um ein gerades Vielfaches von halben Wellenlängen unterscheiden. Eine Auslöschung des Lichtes (oder wenigstens ein Interferenzminimum) erfolgt je-
5.2 Formmessung
239
doch immer dann, wenn der Wegunterschied ein ungerades Vielfaches der halben Wellenlänge beträgt. Um zu einer vorzeichenrichtigen, hochgenauen Registrierung der Bewegung zu kommen, wird vor das eigentliche Interferometer zur Messung der Bewegung ein zweites Interferometer gestellt (bestehend aus den beiden Strahlteilerwürfeln PSt und St sowie den beiden Spiegeln S und dem akusto-optischen Modulator AOM), dessen geometrische Weglängen sich zwar nicht ändern, dessen optische Weglänge in einem der Arme jedoch durch einen AOM fortwährend verändert wird. Wird jedoch der Tripelspiegel TP2 auf den Teilerwürfel zu bewegt (positive Bewegungsrichtung z), so erhöht sich die Frequenz des Lichtes in diesem Interferometerarm während dieser Bewegung zusätzlich aufgrund des longitudinalen Dopplereffektes und es entstehen in dieser Zeit gerade 2z/O zusätzliche Interferenzstreifen. Diese Anzahl ist ein Mass für die Verschiebung des Tripelprisma TP2. Typische Anwendungsfelder x Präzise Positionierung (1 nm) von Belichtungstischen für Wafer-Stepper zur Belichtung von integrierten Schaltungen; x Schwingungsmessungen und -analysen; x Vermessung der dynamischen Durchbiegung von Brücken unter Verkehrslast und ähnliches; x Einmessen von fest integrierten Mess-Systemen, Feststellen der systematischen Restfehler (bzw. durch die Temperatur) und Kompensation durch eine Steuersoftware.
5.2 Formmessung Die folgenden optischen Verfahren eignen sich insbesondere zur Messung und Bestimmung der geometrischen Form von Produkten. 5.2.1 Schattenwurfverfahren Messprinzip Ein paralleles Strahlenbündel (z.B. durch Aufweiten eines Laserstrahls) projiziert den Schattenwurf des zu vermessenden Objekts auf einen Lichtsensor, dessen Empfängerelemente (Pixel) in Zeilen oder Matrixform angeordnet sind (Abb. 5.7).
240
5 Optische Messtechnik
Abb. 5.7. Arbeitsprinzip des Schattenwurfverfahrens
Die Helligkeitsinformation wird beispielsweise durch einen Mikrocontroller ausgelesen. Aus den Positionen der Hell-Dunkelübergänge kann der Durchmesser eines Teils ermittelt werden. Bei einer einfachen, aber sehr schnellen Variante wird nur geprüft, ob die Helligkeit oberhalb oder unterhalb eines Schwellenwertes liegt. Hier ist die erreichbare Genauigkeit durch den Abstand der Pixel des Sensors gegeben. Eine höhere Genauigkeit (bis zu 1/10 des Pixelabstands) erzielt man bei Auswertung des Helligkeitsverlaufs im Bereich der Kanten. Typische Pixelabstände liegen im Bereich von 10 m bis 120 m. Die Schattenprojektion gestaltet sich besonders einfach, wenn die zu vermessenden Teile im Produktionsprozess bereits ausgerichtet vorliegen bzw. eine Ausrichtung ohne größeren Aufwand möglich ist (z.B. bei rotationssymmetrischen Teilen). Durch Verwendung eines parallelen Strahlengangs sind Variationen des Abstands zwischen Messobjekt und Sensor unkritisch. Typische Anwendungsbereiche Schattenwurfverfahren ermöglichen eine schnelle und berührungsfreie Bestimmung geometrischer Abmessungen in zahlreichen Bereichen der Fertigungskontrolle. Sie zeichnen sich durch eine hohe Robustheit, Genauigkeit und Schnelligkeit aus. Neben der Maßkontrolle bei der Fertigung von Massengütern, kann beispielsweise die Abisolierung von Kabelenden, die Anwesenheit von Verschlusskappen (Abb. 5.8) oder ähnliches geprüft werden.
5.2 Formmessung
241
Abb. 5.8. Kontrolle der Anwesenheit von Verschlusskappen
5.2.2 Streifenprojektion Einsatzbereich und Eigenschaften Die Streifenprojektion ist eine Technik der berührungslosen optischen Formerfassung. Sie ergänzt die Koordinatenmesstechnik. Ihre Stärke liegt in der sehr schnellen und flächendeckenden Erfassung einer sehr großen Zahl von Koordinatenmesswerten (es entstehen sogenannte Punktewolken auf vielen 100.000 bis Millionen Koordinatentripeln x,y,z) und deren bildhafte Darstellung und Weiterverarbeitung auf dem PC. Ein wesentlicher Vorteil ist die Tatsache, dass die Messwerte berührungslos und damit auch kräftefrei gewonnen werden. Damit können vor allem Materialien wie Stoff, Gummi, menschliche Haut und Ton bzw. Wachs vermessen werden. Messprinzip Eine Anlage zur berührungslosen Erfassung der 3D-Form einer Oberfläche besteht aus einer CCD-Kamera mit einem Messobjektiv mit fester Brennweite und einem Streifenprojektor. Abbildung 5.9 zeigt eine Anordnung, bei der Streifenprojektor und Kamera einen Winkel T < 90° bilden. In diesem Falle erscheinen die auf die Oberfläche projizierten Streifen von der Kamera aus betrachtet verbogen. In dieser Auslenkung der Streifen ist der z-Messwert des Oberflächenpunktes kodiert, aus dem mit einem komplizierten Rechenverfahren die x,y-Koordinate errechnet wird. Dabei kann man sich in der Regel nicht auf ein einziges Streifenmuster beschränken, sondern es werden in der Regel eine Sequenz verschiedener Streifenmuster projiziert, die alle gemeinsam zur Auswertung herangezogen werden.
242
5 Optische Messtechnik
Abb. 5.9. Messprinzip einer Streifenprojektion
Typische Anwendungsbereiche In der Praxis wird die Streifenprojektion in folgenden Bereichen angewendet: x Formerfassung von Designermodellen zur Überführung in eine CADgerechte Form (Reverse Engineering); x Formerfassung kompletter Autokarossen (Zusammensetzung aus bis zu 250 Einzelansichten, Patches); x Untersuchung von Formblechteilen von Automobilkarossen auf Dellen und Beulen direkt nach dem Umformvorgang zur Qualitätssicherung des Umformprozesses, x Vermessung von Spritzgussteilen;
5.2 Formmessung
243
x Untersuchungen zum Schrumpf-Prozess beim Abkühlen von Metallgussteilen; x Formerfassung des menschlichen Köpers oder von Teilen davon zur Anfertigung von Maßanzügen, für plastische, rekonstruktive Chirurgie (Unfallchirurgie z.B. am Gesicht), berührungslose Abformung des Gesichtes zur Anfertigung von Masken, Anfertigung von orthopädischen Schuhen z.B. für Diabetiker, Untersuchung von Wundheilungsprozessen; x Einjustierung von Koordinatensystemen bei der Fusion von Bildern aus der Computer Tomographie mit Bildern z.B. aus Operationsmikroskopen zur sicheren Navigation bei schwierigen Operationen (z.B. Gehirnchirurgie) oder x Formerfassung des Gebisses und von Bohrlöchern in Zähnen zur Anfertigung von Inlets. Schwierigkeiten entstehen bei der Erfassung von glänzenden Oberflächen (Christbaumkugel), sehr scharfen Kanten (Schneide eines Messers), sehr dunklen Oberflächen (Gummi oder schwarzer Samt) oder in einer Umgebung, die stark von Fremdlicht beeinträchtigt wird (Werkhalle ohne Messkabine), sehr stark strukturierten („zerklüfteten“) Körpern (Haarbürste) oder Sacklöchern (Bohrungen). Die Genauigkeit des z-Messwertes liegt im Bereich von typischerweise 1/1.000 bis zu 1/50.000 der Bildfelddiagonale bei besonders flachen Teilen. Die x-y-Auflösung ist durch die Pixelzahl der zur Bilderfassung verwendeten CCD-Kamera gegeben; jedes Pixel liefert einen z-Messwert; typische Werte sind von ca. 580 u 720 Pixel bis zu > 1.000 u 1.200 Pixel. Hier sind weitere Fortschritte zu erwarten. 5.2.3 Weißlichtinterferometrie Einsatzbereich und Eigenschaften Bei der Weißlichtinterferometrie verwendet man Lichtquellen mit kurzer Kohärenzlänge, welche sich, wie der Name des Verfahrens bereits andeutet, durch ein breites Spektrum auszeichnen. Solche Eigenschaften besitzen beispielsweise klassische Lichtquellen wie Halogen- oder Entladungslampen. Das Prinzip ist in Abb. 5.10 zu erkennen. Durch die sehr kurzen Emissionszeiten des Lichts auf atomarer Ebene und durch Störungen der Emissionsprozesse in der Lichtquelle liegt die zeitliche Länge der von spektral breiten Lichtquellen emittierten Wellenpakete im Femtosekundenbereich. Eine Kohärenzzeit im Femtosekundenbereich entspricht einer Kohärenz-
244
5 Optische Messtechnik
Abb. 5.10. Aufbau eines Interferometers zur Abstandsmessung
länge im Mikrometerbereich. Dadurch ist die Absolutbestimmung des Abstands zwischen Objektpunkt und Strahlteiler im Nanometerbereich möglich. Mit den Superlumineszenzdioden mit guter räumlicher Kohärenz und Strahlqualität ist der Interferenzkontrast mit dem Laser vergleichbar geworden. Messprinzip Abbildung 5.10 zeigt ein Interferometer mit einer kurzkohärenten Lichtquelle. Der Lichtstrahl wird mit Hilfe eines Strahlteilers in einen Referenzstrahl und in einen Probenstrahl aufgespalten. Der Referenzstrahl wird vom Referenzspiegel zurückreflektiert. Der Probenstrahl wird auf einen Objektpunkt fokussiert, dessen Position bestimmt werden soll. Der vom Objekt zurückgestreute Strahl wird am Detektor mit dem zurückreflektierten Referenzstrahl überlagert. Verschiebt man den Referenzspiegel, der sich zunächst an der Position x = 0 befindet, in Strahlrichtung um x, so erhält man das in Abb. 5.11 gezeigte Interferenzsignal. Kennt man die Position des Referenzspiegels in dieser Stellung, so kennt man damit auch den zu bestimmenden Abstand des Objektpunkts.
5.3 Verformungsmessung mit der Holografischen Interferometrie
245
Abb. 5.11. Interferenzsignal am Detektor mit Weißlichtquelle (dicker Strich) und Laser
Typische Anwendungsbereiche sind: x Dreidimensionale Vermessung von rauen Oberflächen, welche das Messlicht gleichzeitig streuen und reflektieren. Die ebenfalls eingesetzten mechanischen Tastverfahren arbeiten sequentiell und benötigen daher lange Messzeiten; die alternativen optischen Verfahren wie Laserinterferometrie und Streifenprojektion sind weniger genau. x Berührungslose Messung von einfachen Geometrien von Produkten wie Glasrohre, Bleche oder Folien. Die Vorschubgeschwindigkeiten sind dort einige Meter pro Sekunde mit Messgenauigkeiten im Mikrometerbereich und darunter. x Dreidimensionale Vermessung von Mikrostrukturen (z.B. Höhenprofile und Abstände) im Nanometerbereich.
5.3 Verformungsmessung mit der Holografischen Interferometrie Einsatzbereich Holografische interferometrische Untersuchungen werden im Rahmen der Qualitätssicherung für sicherheitsrelevante Bauteile durchgeführt, deren Fehlerfreiheit unbedingt gewährleistet und dokumentiert werden muss (z.B. Treibstofftanks für Raketen, Castorbehälter oder Flugzeugreifen). Ziel ist es hierbei, Fehler (z.B. Lunker, Schweißnahtfehler oder Ablösungen von Laminaten) sichtbar werden zu lassen. Im Entwicklungsbereich wird die Holografie in der vorbeugenden Qualitätssicherung ebenfalls eingesetzt, und zwar hauptsächlich zum Aufspüren von Geräuschquellen, beispielsweise an Autokarossen, Motor-Getriebeblöcken, Bremsscheiben
246
5 Optische Messtechnik
oder Autoreifen sowie zur experimentellen Prüfung von Verformungen spezieller Bauteile (z.B. im Flugzeugbau). Diese Untersuchungen werden heute meist flankierend zu Berechnungen mit der Methode der Finiten Elemente durchgeführt. Messprinzip Die Grundidee der holografischen Interferometrie besteht darin, zwei Zustände eines Objektes, die zeitlich nacheinander vorliegen, mit Hilfe der Holografie aufzuzeichnen und ihre Bilder gleichzeitig zu rekonstruieren. Die gleichzeitig vorhandenen Bilder sind in der Lage, miteinander zu interferieren, so, als ob beide Zustände gleichzeitig vorliegen würden. Aus den sichtbar werdenden Interferenzen können die Verformungsvektoren bzw. die Abweichungen quantitativ ermittelt werden. Abbildung 5.12 zeigt eine mögliche Anordnung zur holografischen Untersuchung eines Objektes.
Abb. 5.12. Anordnung zur interferometrischen Holografie
Für die Aufnahme des Hologramms müssen zwei Teilbelichtungen auf die gleiche holografische Filmplatte aufgezeichnet werden; zwischen diesen Belichtungen wird die Belastung des zu untersuchenden Objektes geändert. Für die erste Belichtung sind die Verschlüsse 1 und 3 geöffnet, so dass das Objekt mit der Beleuchtungswelle beleuchtet und gleichzeitig die Hologrammplatte mit der Referenzwelle 1 bestrahlt wird. Die von der rauen Objektoberfläche diffus reflektierte Welle interferiert aufgrund der Kohärenz des Laserlichtes zu einem raumfesten, stationären Mikrointerferenzmuster, den sogenannten Speckles, die mikroskopisch kleine
5.3 Verformungsmessung mit der Holografischen Interferometrie
247
Hell-Dunkel-Erscheinungen in dem Raum vor dem Objekt bilden. Jedes dieser Speckles besitzt eine eigene Phase der Lichtwelle, die durch die Mikrorauheit und die Position der Objektoberfläche festgelegt wird. Diese Phase der Speckles wird in einem mikroskopisch feinen Interferenzmuster in der Hologrammplatte gespeichert, wobei die Speckles mit der ebenfalls einstrahlenden, intensitätsstarken Referenzwelle interferieren. Diese liefert sozusagen die Bezugsphase für das Specklefeld. Nach der Verformung des Objektes erfolgt die Belichtung 2, wobei nun die Verschlüsse 2 und 3 geöffnet werden. Die nun aufgezeichneten Phasen des aufgrund des neuen Lastfalles leicht modifizierten Specklefeldes werden bezüglich der Phase der Referenzwelle 2 aufgezeichnet. Hierbei ist wesentlich, dass sich die Mikrostruktur der Oberfläche durch die Verformung nicht geändert hat, wohl aber ihre makroskopische Position. Die beiden holografisch gespeicherten Specklefelder unterscheiden sich also ebenfalls nicht in ihrer mikroskopischen Feinstruktur, wohl aber in ihrer makroskopischen Phasenlage zueinander. Nach der Entwicklung der Hologrammplatte kann diese mit Hilfe der beiden Referenzwellen 1 und 2 rekonstruiert werden. Jetzt werden also die beiden Verschlüsse 1 und 2 geöffnet; das Objekt selbst wird nicht mehr benötigt. Dabei rekonstruiert Referenzwelle 1 das erste Specklefeld, Referenzwelle 2 das zweite Specklefeld. Da beide Felder eine nahezu identische Feinstruktur der Phase aufweisen, können sie miteinander interferieren. Die Interferenzstreifen zeigen jeweils eine Phasenänderung um 2S an, was einer Verformung der Oberfläche um etwa O/2 entspricht, wobei O die Wellenlänge des Lasers bei der Hologrammaufnahme ist. Die Interferogramme werden mit einer CCD-Kamera aufgenommen und mit Computerprogrammen ausgewertet. Abbildung 5.13 zeigt das Schwingungsverhalten von Turbinenschaufeln.
Abb. 5.13. Drei verschiedene Schwingungsmoden einer 16.680Hz, 21.400Hz, 32.983Hz (Werkfoto: Kiemle & Röss)
Turbinenschaufel:
248
5 Optische Messtechnik
Abb. 5.14. Speckle-Interferomterie an einer an 5 Punkten eingespannten und mit gleichmäßigem Druck belasteter Platte
Abbildung 5.14 zeigt das interferometrische Hologramm einer an 5 Punkten eingespannten Platte.
5.4 Spannungs-, Dehnungs-, Kraftmessung 5.4.1 Spannungsoptische Verfahren Spannungsmessungen an transparenten Bauteilen lassen sich traditionell mit spannungsoptischen Verfahren durchführen. Viele lichtdurchlässige, optisch isotrope Körper werden durch elastische Verformung wie Zug, Druck, Biegung und Torsion doppelbrechend. Befinden sich diese Bauteile zwischen zwei gekreuzten Polarisatoren, so hellt sich das Gesichtsfeld an den Stellen auf, an denen durch Deformation die Brechzahl verändert wurde. Um bei lichtundurchlässigen, komplizierten oder besonders großen Bauteilen die Verteilung der Spannung untersuchen zu können, bringt man maßstabsgetreue Modelle in den Strahlengang zwischen die gekreuzten Polarisationsfilter. Als Material für die Modelle verwendet man Kunsstoffe, beispielsweise Phenolharze. Unter Belastung entstehen Aufhellungen, im weißen Licht Linien gleicher Farbe, sogenannte Isochromaten. Diese entsprechen den Gebieten mit gleicher Hauptspannungsdifferenz. Durch Abzählen der Isochromaten kann man auf die Höhe der Spannung und ihre Verteilung schließen. Sie sind anschaulich die Höhenlinien des Belastungsgebirges (Abb. 5.15).
5.4 Spannungs-, Dehnungs-, Kraftmessung
249
Abb. 5.15. Isochromaten eines druckbelasteten Zylinders
5.4.2 Speckle-Pattern-Interferometrie (ESPI) Spannungen und Spannungsverteilung an einer zugbelasteten Probe lassen sich mittels Speckle-Interferometrie direkt an der Universalprüfmaschine aus der Dehnung der Probe ermitteln. Das Verfahren ist in Abschn. 5.3 beschrieben. 5.4.3 Faseroptische Sensorik (FOS) zur Spannungs- und Dehnungsmessung Die Vorteile faseroptischer Sensoren sind augenscheinlich: Unempfindlichkeit gegenüber extremen Umgebungsbedingungen (z.B. elektromagnetische Felder, Umwelteinflüsse, Chemikalien, hohe und tiefe Temperaturen), Miniaturisierung, Gewichtseinsparungen, einfache Integration in Bauteile, insbesondere in Faserverbundwerkstoffen. Lange Lebensdauer und geringer Wartungsaufwand verbinden sich mit hoher Messgenauigkeit. Der Einsatz faseroptischer Sensoren (FOS) in Messtechnik und Qualitätssicherung wird begünstigt durch die enormen Fortschritte in den optischen Technologien und der Telekommunikation mit kostengünstig erhältlichen Komponenten: den Fasern, Halbleiterlasern, Optokopplern und der zugehörigen Signalelektronik. Die Fiber-Bragg-Grating-Sensoren stehen dabei an der Schwelle der industriellen Einführung und werden zu den wichtigsten Messtechniken gehören. Faseroptische Sensoren mit Multimodefasern Die Lichtausbreitung erfolgt durch Totalreflexion zwischen Fasermantel und Faserkern. Bei Multimodefasern liegt der Kerndurchmesser bei 50 Pm. Es wird die Änderung der Lichtintensität durch Krafteinwirkung
250
5 Optische Messtechnik
auf die Faser gemessen. Durch Krafteinwirkung auf die Faser ändert sich die durch die Faser transmittierte Intensität auf Grund von Verlusten durch Modenauskopplung (Abb. 5.16).
Abb. 5.16. Schematische Darstellung der Kraftmessung mit faseroptischen Sensoren
Eine Änderung der Lichtmodulation kann auch durch eine Belastung außerhalb der Faser hervorgerufen werden. Der FOS besteht dabei aus einer Sende- und einer oder mehreren Empfängerfasern. Dabei wird das von einer Membran in die Faser zurückgestreute oder zurückreflektierte Licht gemessen. Variiert der Abstand der Membran zum Faserende auf Grund eines äußeren Druckes, so ändert sich die von der Empfängerfaser aufgenommene Lichtmenge (Abb. 5.17).
Abb. 5.17. Faseroptischer Drucksensor mit einer Membran zur Druckaufnahme
5.4 Spannungs-, Dehnungs-, Kraftmessung
251
Sensoren mit Monomodefasern (Faserinterferometer) Wegen des geringen Faserkerndurchmessers von etwa 5 Pm kann sich nur ein Wellenmodus entlang der Faser ausbreiten. Bei der Messung wird die Verschiebung der Phase im Lichtwellenleiter (LWL) ermittelt, die durch die Einwirkung einer äußeren Kraft hervorgerufen wird. Durch die Überlagerung des Lichts aus einem Mess-LWL mit dem eines Referenz-LWL -6 lässt sich die Phasenänderung bis zu einer Genauigkeit von 10 rad bestimmen. Damit lässt sich ein Verschiebeweg von 10 nm auflösen. Fiber-Bragg-Grating-Fasersensoren (FBGS) Bei Fiber-Bragg-Grating-Fasersensoren handelt es sich um MonomodeGlasfasern (Kerndurchmesser 5 Pm), in die eine Gitterstruktur mit einer periodischen Brechzahländerung eingeprägt wird. Diese Gitterstruktur reflektiert das durchlaufende Licht bei der sogenannten Bragg-Wellenlänge, d.h. bei einer Wellenlänge OB, die dem Zweifachen der Gitterperiode d entspricht. Andere Wellenlängen werden ohne wesentliche Abschwächung durchgelassen. Die FBG-Sensoren werden zur Spannungsmessung in die zu überwachende Struktur eingebettet. Wird die Faser einer Zugspannung oder einer Temperaturänderung unterworfen, so ändert sich auf Grund der Dehnung der Faser die Gitterperiode (und die Brechzahl) und damit die Wellenlänge des reflektierten Laserlichtes. Aus der Wellenlängenänderung lassen sich Dehnungen und Zugspannungen sehr genau bestimmen. Der Messbereich für die Dehnung der FBGS reicht von 3 4 10 Pm pro Meter Faserlänge bis +10 Pm/m und besitzt eine relative Auflösung bis zu 1 Pm/m (PH). Die Messtechnik ist sehr robust, weil nicht die Intensität, sondern die Wellenlängenänderung des reflektierten Lichtes gemessen wird. Allerdings ist häufig eine Temperaturkompensation erforderlich (z.B. durch einen weiteren FBGS für die Temperatur). Die Länge eines Bragg-Gitters liegt bei 1 mm. In eine Faser lassen sich mehrere Gitter unterschiedlicher Periode an beliebig verschiedenen Stellen einschreiben. Damit eröffnet sich die Möglichkeit, mit einer Faser eine Vielzahl von Mess-Stellen (bis zu 100) gleichzeitig zu überwachen. Wird zusätzlich die Laufzeit des reflektierten Signals bestimmt, so lassen sich die Stellen der äußeren Kraft- oder Lasteinwirkung angeben. Die erreichbare Ortsauflösung liegt (bei Faserlängen von 1 km) bei etwa 1 m. Als Lichtquelle wird ein breitbandiger Laser (z.B. eine Superlumineszensdiode) oder ein durchstimmbarer Laser eingesetzt. Auch das Verfahren des Wellenlängenmultiplexing findet Anwendung. Da die Signalgewinnung schnell erfolgt, ist es möglich, dynamische Lastwechselvorgänge an Bauteilen zu messen und Schwingungen- und Vibrationen auszuwerten. Die Abtastfrequenzen reichen im Augenblick bis 500 Hz. Vorteilhaft ist dabei die im Vergleich zu anderen Sensoren (z.B. Dehnmess-Streifen) außerordentlich lange Lebens-
252
5 Optische Messtechnik 6
dauer der FBGS, die mehr als 10 Belastungszyklen standhält, sowie ihre Stabilität über lange Zeiträume (> 25 Jahre). Anwendungen Es sind in der nahen Zukunft weitreichende Anwendungen bei vielen Mess- und Überwachungsaufgaben (Monitoring) in Luft-und Raumfahrt, im Automotive-Bereich und in der Bautechnik zu erwarten: x Integration von FBGS in Bauteile aus Verbundwerkstoffen, z.B. in die Tragflügel von Verkehrsflugzeugen, in die Rotorblätter von Hubschraubern, in den Mast von Hochseeyachten, zur Untersuchung und der Überwachung von statischen und dynamischen Belastungen. x Integration von FBGS in Schiffsrümpfen, Treibstoffbehälter von Flugzeugen und Raketen sowie Karosserien. x Überwachung (Monitoring) von Bauwerken mit langreichweitigen Fasern und mit Fasernetzen, beispielsweise Staudämme, Hängbrücken, Hochhäuser, Kernreaktoren, Tunnel oder Offshore-Anwendungen.
5.5 Schwingungsmessung Optische Verfahren messen und analysieren Schwingungen bzw. Vibrationen von Oberflächen und von Bauteilen ohne mechanischen Kontakt zur Oberfläche. Da die Messung masselos erfolgt, ist sie ohne Verfälschung der Schwingung- und Schwingungsform durch das Eigengewicht des Sensors. Für die punktuelle Vermessung schwingender Bauteile eignen sich spezielle ausgelegte Triangulationssensoren (Abschn. 5.1), sowie für hohe Genauigkeitsanforderungen insbesondere Laser-Doppler-Vibrometer. Mit Verfahren der holografischen Interferometrie und der Speckle-PatternInterferometrie lassen sich Bauteilschwingungen flächenhaft beobachten und analysieren. 5.5.1 Laser-Doppler-Vibrometer Messprinzip Beim Laser-Doppler-Vibrometer handelt es sich um ein interferometrisches Einpunktverfahren das hohe Empfindlichkeit und große Bandbreite in sich vereinigt (Abb. 5.18).
5.5 Schwingungsmessung
253
Abb. 5.18. Aufbau eines Laser-Doppler-Vibrometers
Das kohärente Licht eines Helium-Neon-Lasers wird in einem ersten Strahlteiler BS 1 in einen Mess- und einen Referenzstrahl aufgespalten. Der Referenzstrahl gelangt über BS 3 direkt auf die Detektoren D1 und D2. Der Messstrahl passiert den Strahlteiler BS 2 und wird mit Hilfe eine Projektionsoptik (Linse) auf das schwingende Objekt abgebildet. Das vom Objekt zurückgestreute Licht gelangt über die Strahlteiler BS 2 und BS 3 auf die Detektoren D1 und D2 auf denen sich die beiden Signale jeweils überlagern. Durch die Bewegung der Oberfläche wird das von der Oberfläche zurückreflektierte Licht wegen des Dopplereffektes in seiner Frequenz verändert. Die Frequenzverschiebung des rückgestreuten Lichtes ist direkt proportional der Geschwindigkeit der angetasteten Oberfläche. Messbereich Mit dieser Technik können Bauteilgeschwindigkeiten bis 10 m/s erfasst werden und sie erlaubt auch die Erkennung der Bewegungsrichtung der Objekte. Man kann Laser geringer Leistung (Laser-Klasse 2, Leistung kleiner 1 mW) verwenden, so dass der Einsatz des Verfahrens nicht auf Grund von Sicherheitsauflagen eingeschränkt ist. Die Amplitude der Bauteilschwingung lässt sich unabhängig von der Schwingungsfrequenz absolut bestimmen. Die hohe Auflösung reicht je nach Arbeitsbereich von etwa 0,01 Pm bis 40 Pm. In Abb. 5.19 ist der typische Arbeitsbereich eines Laser-Vibrometers und der holografischen Doppelpuls-Interferometrie dargestellt.
254
5 Optische Messtechnik
Abb. 5.19. Arbeitsbereiche des Laser-Vibrometers und der holografischen Interferometrie
Typische Anwendungsbereiche Abbildung 5.20 zeigt typische Anwendungen bei der Qualitätssicherung aus den Bereichen Automobilbau, Maschinenbau, Computertechnik und Elektronik. x Schwingungs- und Modalanalyse an Karosserieblechen und Motorblöcken sowie Vibrationsanalyse an rotierenden Bremsscheiben oder am Ventiltrieb von Zylinderköpfen. x Schwingungsuntersuchungen an Werkzeugmaschinen, insbesondere an rotierenden Teilen, wie Spindeln und Werkzeugen. Über die Schwingungsanalyse ist die Untersuchung und frühzeitige Erkennung von Lagerschäden möglich. x Untersuchung der Wobbelbewegung von rotierenden Festplatten und der Bewegung der Schreib- Leseköpfe. x Schwingungsmessung an bewegten Audio- und Videobändern. x Einsatz bei der Untersuchung der Qualität von Lötstellen in elektronischen Schaltungen (Platine muss dabei zu Schwingungen angeregt werden). x Aufgrund der Fokussierbarkeit des Laserstrahls auf wenige Pm sind Messungen an sehr kleinen Strukturen, beispielsweise an Drähten, Nadeln von Druckern oder Relais-Kontakten möglich. x Schwingungsanalyse an Lautsprechermembranen.
5.5 Schwingungsmessung
255
Abb. 5.20. Typische Anwendungen für Laser-Doppler-Vibrometer
Faseroptische Vibrationssensoren Benutzt man den Referenzarm des Interferometers als zweiten Messarm so erhält man ein Vibrometer mit dem man den Bewegungsunterschied zwischen zwei angetasteten Messpunkten erfassen kann (Zwei-Punkt-Vibrometer). Besonders flexible Einsatzmöglichkeiten ergeben sich, wenn das Laserlicht über zwei polarisationserhaltende Lichtfasern zu den Messköpfen transportiert wird (differenzielles faseroptisches Vibrometer). Damit lassen sich beispielsweise Rotations- und Torsionsschwingungen eines rotierenden Laufwerkes erfassen. In der zukünftigen Entwicklung werden faseroptische Systeme eine besondere Rolle spielen. Es ist mit dieser Technik möglich, Vibrationssensoren auf der Basis von Mikrointerferometern extrem zu miniaturisieren. Sie sind völlig unempfindlich gegen elektromagnetische Störungen und sie sind leicht in Sensornetze integrierbar, deren Ausdehnung bis in den Kilometerbereich reichen können. (Abschn. 5.7 Fasersensoren) 5.5.2 Holografische Interferometrie und Speckle-PatternInterferometrie Holografische Verfahren und die Speckle-Messtechnik werden insbesondere zur genauen Verformungsmessung von Bauteilen eingesetzt: Das Messprinzip ist in Abschn. 5.2 beschrieben. Beide Verfahren lassen sich aber auch zur Untersuchung von stationären Schwingungen einsetzen. Man benutzt hierbei das sogenannte Zeit-Mittelungsverfahren. Dabei werden bei der Aufnahme auf dem Hologramm bzw. der CCD-Kamera innerhalb der Belichtungszeit mehrere Schwingungen aufgezeichnet. Das entstehende Interferogramm zeigt flächenhaft über dem Objekt Interferenzlinien als Orte gleicher lokaler Schwingungsamplitude (Abb. 5.21).
256
5 Optische Messtechnik
Abb. 5.21. Schwingungen einer Lautsprechermembran (Labor für optische Messtechnik der FH Aalen)
Mit solchen Untersuchungen lassen sich auch quantitative Angaben über die räumliche Verteilung der Schwingungsamplituden von Bauteilen gewinnen.
5.6 Temperaturmessung Messprinzip Mit optischen Messungen im infraroten, nicht sichtbaren Spektralbereich kann die Temperatur von festen, flüssigen oder gasförmigen Körpern sehr schnell, berührungsfrei und mit geringem Fehler bestimmt werden. Die Geräte messen die vom Messobjekt abgestrahlte Strahldichte und berechnen mit Hilfe des Planck´schen Strahlungsgesetzes die Oberflächentemperatur des Messobjektes. Im Gegensatz zur berührenden Temperaturfühlern haben Strahlungstemperatur-Messgeräte folgende Vorteile: x Sie beeinflussen nicht das Messobjekt. Das Messergebnis ist nicht abhängig von der Messentfernung. x Sie sind etwa um den Faktor 1.000 schneller. x Bei Temperaturen über 1.300°C sind sie die einzige kostengünstige Möglichkeit der Temperaturmessung. x Sie sind sehr wirtschaftlich, wenn viele Temperaturwerte gleichzeitig auf einer Fläche gemessen werden sollen. Der vom Messgerät genutzte Wellenlängenbereich richtet sich nach der Messaufgabe. Bei heißen Messobjekten (>500°C) wird das nahe Infrarot genutzt. Bei Objekten im Raumtemperaturbereich kommt das mittlere Infrarot bis 14 µm zum Einsatz. Bei großen Messentfernungen nutzt man
5.6 Temperaturmessung
257
die atmosphärischen Fenster von 3 µm bis 5 µm oder 8 µm bis 14 µm. Zum Messen der Oberflächentemperatur von Kunststoffen oder Gläsern werden spezielle Spektralbereiche genutzt. Messgeräte Die Strahlungstemperatur-Messgeräte werden in 3 Gruppen eingeteilt: x Strahlungsthermometer (von einer runden Fläche wird die Durchschnittstemperatur ermittelt). x Linescanner (eine Messlinie wird abgetastet und die Temperatur wird entlang der Linie berechnet). x Thermografie-Kamera (das Messobjekt wird als Farbbild dargestellt, wobei der Farbwert einem Temperaturwert zugeordnet ist). Strahlungsthermometer (Pyrometer) Der zu messende Gegenstand wird dabei durch einen Laserpointer oder einen optischen Sucher anvisiert. Der Temperaturwert wird auf einem Display angezeigt oder als elektrisches Signal an einer Standard-Schnittstelle zur Verfügung gestellt. Die Messgeräte werden bezüglich ihrer Optik, Elektronik und Spektralbereich auf den Anwendungszweck optimiert. Beispiele für Kennwerte von industriell einsetzbaren Strahlungsthermometern sind in Tabelle 5.1 enthalten. Tabelle 5.1. Kennwerte von Strahlungsthermometern Messgröße Messtemperatur-Bereich, unterteilt in Abschnitte Messunsicherheit Rauschäquivalente Temperaturauflösung Distanzverhältnis Einstellzeit bei Temperatursprung (25°C auf 1.000°C)
Typische Werte -100°C bis 3.000°C 0,1 K r 0,1% des Messwertes 0,05 K bei Messtemperatur 20°C, Einstellzeit t90 = 0,25 s 1:1 bis 100:1 (Messentfernung/Messfelddurchmesser) 50 ms (90% des Endwertes)
Bevorzugte Einsatzgebiete x Unzugängliche, aggressive, spannungsführende oder weit entfernte Messobjekte. x Schnell bewegte Messobjekte, wie Folienbahnen, Walzen, sich drehende Teile oder Fahrzeuge in Bewegung.
258
5 Optische Messtechnik
x Objekte mit schneller Temperaturänderung, wie Impulsheizer, Kühlund Heizgeräte. x Objekte mit geringer Wärmeleitfähigkeit wie Glas, Kunststoffe, hochlegierte Stähle, Keramik, Grafite oder Faserverbundwerkstoffe. x Messung durch Sichtfenster hindurch auf das dahinter befindliche Messobjekt, wie in Öfen, Vakuumkammern. x Kleine Messobjekte, Spitzen, Drähte, Gitter, Netze oder Folien. x Objekte mit unterschiedlicher Oberflächentemperatur-Verteilung, wie Bauwerke, biologische Objekte, Glas- oder Kunststoffbahnen während der Herstellung. x Schnelles Erkennen von Veränderungen, wie bei der Geländeüberwachung, Prüfung von elektronischen Baugruppen, Brandherdlokalisation oder vorbeugende Instandhaltung. Linescanner und Thermografiekameras Linescanner messen gleichzeitig entlang einer Linie die Temperaturverteilung. Thermografiekameras stellen die Temperaturverteilung als flächiges Bild (meist in Farbe) dar. Häufig ist rot die höchste und blau die niedrigste Temperatur, so dass man schnell einen exakten Überblick bekommt. Die Bildgeräte liefern wertvolle Informationen für die Qualitätssicherung in der Entwicklung und der Produktion. Typische Kennwerte von industriell einsetzbaren Thermografiesystemen sind in Tabelle 5.2 zusammengestellt. Tabelle 5.2. Kennwerte von Thermografiesystemen Messgrößen von Thermografiesystemen Messtemperatur-Bereich, unterteilt in Abschnitte Messunsicherheit Rauschäquivalente Temperaturauflösung Geometrische Auflösung Pixel pro Bild Bildfrequenz
Typische Werte -50°C bis 2.000°C 1 K r 0,5% des Messbereiches 0,02K am Hohlraumstrahler bei 30°C 1mrad x 1mrad 104 bis zu 106 0,5 Hz bis 60 Hz
Bevorzugte Eisatzgebiete Thermografiekameras und Linescanner werden überall dort eingesetzt, wo Bilder einen schnellen Überblick bringen:
5.6 Temperaturmessung
259
x Inspektion von energietechnischen Anlagen (Generatoren, Motoren, Hochspannungsleitungen, Transformatoren, Öfen oder Auspuffe). x Analyse der Wärmeisolation von Gebäuden und Fehlerlokalisation bei der Winddichtheit und Lecks in der Fußbodenheizung. x Überwachung von Erwärmungs- und Abkühlprozessen bei Bahnware, Stangen, Drähten oder Folien. x Auffinden von Heißläufern an Lagern. x Temperaturüberwachung bei der Lebensmittelproduktion (Kakaoerzeugnisse, Backwaren). x Optimierung von Reibwiderständen (Reifenprüfung, Bremsbeläge oder Anströmflächen). x Prüfung von Wärmeaustauschern, Nachweis der Wirkung der Wärmeoder der x Kälteisolation. x Lokalisation der thermischen Belastung von Gewässern, Deponien oder Lecks in Fernwärmeleitungen. Eine Kombinationen von Thermografiekamera und WärmewellenMesstechnik (Lock-in-Thermografie) eröffnet neue Möglichkeiten der zerstörungsfreien Werkstoffprüfung. Damit können Delaminationen in Schichtwerkstoffen, Risse und Inhomogenitäten in größeren Tiefen sichtbar gemacht werden (Abb. 5.22).
Abb. 5.22. Thermografie der Frontscheibe eines PKW´s (Werkfoto: InfraTec GmbH, Dresden). Die Oberflächentemperatur wurde in Farbflächen (hier: Grauwerte) umgewandelt. Die Temperaturen der Messpunkte P01 bis P06 sind in der rechten oberen Tabelle aufgelistet. Der Temperaturverlauf entlang der weißen Messlinie L07 ist im oberen Diagramm als Funktion der Pixel-Nr. dargestellt.
260
5 Optische Messtechnik
5.7 Feuchtemessung Messprinzip und Einsatzbereich Der physikalisch gebundene Anteil von Wasser in Gasen oder festen Stoffen wird als Feuchte bezeichnet. Den Feuchtegehalt an der Oberfläche von Gegenständen kann man optisch messen; denn die Wassermoleküle verursachen im infraroten Spektralbereich Absorptionsunterschiede. Das feuchte Messobjekt wird mit infraroter Strahlung bestrahlt, die aus zwei unterschiedlichen Wellenlängenbereichen stammt. Die Strahlungsanteile des 1. Wellenlängenbereiches werden auf Grund der Feuchte stark absorbiert und die Anteile des 2. Wellenlängenbereich werden deutlich weniger absorbiert. Der Quotient der beiden Messergebnisse (Signal der 1. Messung geteilt durch Signal der 2. Messung) ist proportional dem Wasseranteil im Messgut. Nach dem gleichen Prinzip werden auch die Gasanteile in der Luft bestimmt. Aus Kostengründen nutzt man bei der Feuchtebestimmung Absorptionsbanden bei 0,95 µm, 1,1 µm, 1,43 µm und 1,93 µm. Je nach Anzahl und Anordnung der optischen Sensoren (z.B. Einelementsensor, Zeile oder Matrix) kann der Durchschnittswert der Feuchte von einer Fläche, die Feuchteunterschiede entlang einer Linie oder von einer ganzen Fläche bestimmt werden. Besonders aussagekräftig sind Bildaufnahmen, bei denen man in Millisekunden Feuchtewerte von einer ganzen Fläche erhält. Die beiden Wellenlängenbereiche 2 µm bis 5 µm sowie 8 µm bis 14 µm eignen sich ebenfalls für die Feuchtebestimmung. Dafür können kommerzielle Thermografiekameras eingesetzt werden (Abschn. 5.6) mit dem Vorteil einer schnellen, berührungslosem Bestimmung der Oberflächenfeuchte im Bereich von 0% bis 10% relative Feuchte. Typische Anwendungsfelder Die Anwendungsfelder liegen vor allem bei der Feuchtemessung an der Oberfläche von Baustoffen, Pulver, Tabak, Lebensmittel, Bauwerken und Gemälden.
5.8 Farbmessung 5.8.1.1 Einsatzbereiche In folgenden Bereichen spielt die Farbmessung eine wichtige Rolle für die Qualitätssicherung:
5.8 Farbmessung
261
x Farberkennung Das Wiedererkennen einer Farbe durch Vergleich mit abgespeicherten Farbmustern ist wichtig für die Kontrolle von Farbmarkierungen auf Arzneimittelflaschen, bei der Kontrolle der Reihenfolge verschiedenfarbiger Pillen in Verpackungen oder bei der Sortierung verschiedenfarbiger Gegenstände (z.B. Getränkekästen). x Farbrezeptierung Farbmessgeräte zusammen mit entsprechenden Computerprogrammen erzeugen die gewünschten Farbtöne in der Drucktechnik, beim Lackieren oder bei der Herstellung gefärbter Kunststoffe. x Farbkontrolle Bei zahlreichen Produkten (z.B. bei Textilien) spielt die Farbe (international standardisiert) eine entscheidende Rolle. Die Qualität der Farbwiedergabe ist auch wichtig bei Erzeugnissen der Druckindustrie (Farbdruck), des Maschinenbaus (farbige Produktoberflächen), bei Farbmonitoren und bei LC-Displays. Messprinzip Ziel der Farbmessung ist es, den vom Menschen wahrgenommenen Farbeindruck durch eindeutige reproduzierbare Zahlenwerte zu beschreiben. Die Farbwahrnehmung des menschlichen Auges beruht auf drei unterschiedlichen Sinneszellen, die für die Farben Rot, Grün, Blau empfindlich sind. Ein bestimmter Farbeindruck lässt sich daher durch Angabe der unterschiedlichen Reizstärken der 3 Farbrezeptoren als Zahlentripel charakterisieren, das als Punkt in einem dreidimensionalen Farbraum dargestellt werden kann. Ist die spektrale Energieverteilung des den Farbreiz erzeugenden Lichts bekannt, lassen sich die Farbkoordinaten rechnerisch ermitteln. Die Farbmessung wird deshalb so vorgenommen: Das von der Probe rückgestreute Licht wird meist durch ein optisches Gitter spektral in drei der menschlichen Farbwahrnehmung entsprechende Farbanteile zerlegt und die genormten Farbkoordinaten berechnet. Anschließend werden diese Farb-Koordinaten mit den eingespeicherten verglichen und entsprechende Aktionen eingeleitet. Einfacher aufgebaut sind Farbmessgeräte, die nach dem Dreibereichsverfahren arbeiten, bei dem häufig keine genormten Farbkoordinaten bestimmt werden. Diese Geräte verwenden drei Lichtempfänger, die direkt den Normfarbwerten X, Y und Z entsprechen. Das Dreibereichsverfahren wird häufig bei Farbsensoren eingesetzt, bei denen es lediglich darauf ankommt, eine oder mehrere Farben aus bestehenden Farbmustern wiederzuerkennen, bzw. festzustellen, ob die Abweichung vom vorgegebenen Farbmuster einen Toleranzwert überschreitet.
262
5 Optische Messtechnik
Anwendungsbeispiele Kontrolle von Farbdisplays (Abb. 5.23)
Abb. 5.23. Qualitätskontrolle bei einem Farbdisplay
Bei dieser Anwendung (Abb. 5.23) wird ein spektral messender Sensor eingesetzt. Das Objektiv bildet das (selbstleuchtende) Objekt auf eine Lichtleitfaser ab, die für eine Durchmischung des Lichts sorgt. Die unterschiedlichen Farbanteile sind so gleichmäßig über den Austrittsquerschnitt der Faser verteilt. Das optische Gitter zerlegt das Licht in die spektralen Anteile, die von einem Zeilensensor erfasst werden. Erkennung von Farbmarken (Abb. 5.24)
Abb. 5.24. Erkennung von Farbmarken
Zur Erkennung von Farbmarken nach Abb. 5.24 wird ein Sensor nach dem Dreibereichsverfahren verwendet. Über ein Lichtleiterbündel wird das Messobjekt beleuchtet. Das zurückgestreute Licht wird ebenfalls über ein Lichtleiterbündel zum Farbsensor geführt. Die Trennung in drei Wellenlängenbereiche erfolgt durch vor den Sensoren angeordnete dichroitische Spiegel.
5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind.
263
Abb. 5.25. Erkennung von Farbmarken (nicht selbstleuchtende Objekte)
5.9 Interferometrische Submikrometer-Messtechnik in der Automobilindustrie 5.9.1 Stand und Entwicklung der Messtechnik Die Anforderungen an High-Tech-Komponenten im Kraftfahrzeug steigen ständig. Der Grund für diese Entwicklung liegt vor allem darin, dass sich durch die Einhaltung kleiner Toleranzen in der Regel Funktionsverbesserungen der Bauteile erreichen lassen. Um beispielsweise bei Einspritzsystemen Druckverlauf und Dosierung verbessern zu können, sind Toleranzen von 0,5 µm erforderlich; dies bedeutet, dass das Messsystem eine Auflösung in der Größenordnung von 10 nm haben muss. Ein Großteil der im Maschinenbau gestellten messtechnischen Anforderungen kann mit konventioneller, taktiler Messtechnik nicht mehr zufriedenstellend erfüllt werden. Daher besteht großes Interesse an der Entwicklung berührungsloser Tastsysteme für hochgenaue Formmessmaschinen auf der Basis interferometrischer Methoden. In der Automobilindustrie kommt hinzu, dass eine Großserienfertigung stattfindet: Der Materialdurchsatz ist hoch und die Taktzeiten bewegen sich typischerweise bei wenigen Sekunden. Wegen der genannten Genauigkeitsanforderungen bieten sich hierbei besonders interferometrische Methoden wie die Weißlichtinterferometrie (WLI) an, die unter den Randbedingungen Wirtschaftlichkeit (geringe Taktzeit zur vollständigen Vermessung kompletter Funktionsflächen) und bauteilspezifischer Anpassbarkeit (z.B. zur Messung an schwer zugänglichen Stellen) optimiert werden müssen.
264
5 Optische Messtechnik
Neben den erhöhten Anforderungen an die Toleranz ist auch die Tendenz zur schrittweisen Miniaturisierung der Bauteile erkennbar. So werden Messungen mit sehr kleinen Sonden (Tastern) an funktionsrelevanten Flächen notwendig, die nur schwer zugänglich sind (z.B. Messungen in kleinen oder sehr tiefen Bohrungen). Die derzeit eingesetzten taktilen Messverfahren sind für diese Aufgaben zunehmend ungeeignet. Schließlich gewinnt die Forderung nach kurzen Messzeiten und dadurch geringeren Kosten pro Messung, insbesondere in Verbindung mit einer hohen Auflösung, immer mehr an Bedeutung. Mit taktil messenden Verfahren sind heute keine wesentlich kürzeren Messzeiten mehr erreichbar. Optische Verfahren zählen dagegen zu den schnellsten und genauesten Messverfahren. Der Übergang von taktiler zu optischer Messung ist daher für einen Großteil der Anwendungen nur eine Frage der Zeit. Alternative berührungslose Messverfahren, wie beispielsweise Ultraschall und Röntgen-Computer-Tomographie (RCT) sind wegen der geringeren lateralen und vertikalen Auflösung im Vergleich zu optischen Verfahren bisher nur bedingt geeignet. Mit Hilfe der Weißlicht-Heterodyn-Interferometrie (WHI) können mit hoher Abtastrate Funktionsflächen mit einer vertikalen Auflösung bis hinunter in den Bereich weniger nm vermessen werden. Die Entwicklung von Sonderoptiken erlaubt zudem die Vermessung von Funktionsflächen in fertigungsnaher Umgebung. Zusätzlich muss die Rückführung von interferometrischen Messmethoden auf amtliche Normale gewährleistet werden. 5.9.2 Weißlichtinterferometrie (WLI) Das Prinzip des WLI (Abschn. 5.2.3) beruht darauf, dass eine kurzkohärente Lichtquelle für die Beleuchtung eines abbildenden Systems benutzt wird. Das abbildende System besitzt zusätzlich zur normalen Abbildungsoptik einen Referenzzweig, welcher von einem Teil des eingestrahlten Lichts durchlaufen wird (Abb. 5.10 und 5.11). Ist der Wegunterschied des Laufwegs des Lichts /O im Objektzweig und im Referenzzweig /R geringer als die Kohärenzlänge lC des Lichts, d.h. gilt
/ R / O lC ,
(5.1)
so weisen die wieder zusammengeführten Teilstrahlen eine messbare Interferenz auf. Während einer Messung wird der Wegunterschied der Teilstrahlen definiert verändert und gleichzeitig die Intensität der interferierenden Teilstrahlen auf einem flächenhaft messenden Detektor, üblicherweise einer CCD-Kamera, gemessen (Abb. 5.25).
5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind.
265
Abb. 5.25. a) Schema des Funktionsprinzips eines Weißlichtinterferometers. b) Darstellung eines idealisierten Messsignals (Kohärenzlänge lc)
Die pixelweise Auswertung der durch die Interferenz erzeugten Intensitätsmodulation, das in Abb. 5.25 b gezeigte Intensitätskorrelogramm, liefert eine eindeutige Höheninformation für jedes einzelne Pixel. Dies gestattet, für das gesamte Bildfeld ausgeführt, die Berechnung einer vollständigen Höheninformation des Objektes. Kommerzielle erhältliche WLIs weisen typisch folgende Spezifikationen auf: x Die Höhenauflösung 'z ist durch die verwendete mittlere Wellenlänge des Lichts Om, die Kohärenzlänge lC und die Art des Korrelogrammauswertealgorithmus gegeben. Typische Werte wie Om= 600 nm, lC = 2 Pm und ein geeigneter Phasenauswertungsalgorithmus des Korrelogramms ermöglichen Werte von 'z • 1 nm. x Die laterale Auflösung G gleicht der eines konventionellen abbildenden Systems und ist prinzipiell beschränkt durch Om und die Numerische Apertur NA der Abbildungsoptik:
G t 0.61 Om / NA.
(5.2)
x Der maximale messbare Gesamthöhenunterschied zmax bestimmt sich aus der technischen Machbarkeit, einen Wegunterschied in Referenzarm und Objektarm zu erzeugen, der über die gesamte Strecke präzise geführt wird. Geregelte Piezosysteme ermöglichen heute Werte von zmax d 400 Pm. x Die Baugröße und die Einsetzbarkeit eines WLI sind vergleichbar mit der von Mikroskopen zur optischen Inspektion.
266
5 Optische Messtechnik
Die WLIs gehören zu den Standardinstrumenten der Auswahlprüfung. Dabei werden ausgewählte Teile an einem speziell eingerichteten WLI-Messplatz bezüglich Merkmalen wie Form und Oberflächenbeschaffenheit vermessen. Die Messung an schwer zugänglichen Stellen, beispielsweise Bohrungsverschneidungen im Inneren eines Teils, kann bei diesen Standardinstrumenten nur durch vorherige zerstörende Aufbereitung des Teils durchgeführt werden; denn das Teil muss an geeigneter Stelle geschnitten werden. 5.9.3 Weißlichtinterferometrie mit Sonderoptiken Die optische Messtechnik kann im Fertigungsprozess wesentliche Aufgaben übernehmen. Hier sollen insbesondere die Weißlichtinterferometrie und der Einsatz optischer Endoskope betont werden. Während WLIs die Aufnahme von Höhenprofildaten eines Objektes ermöglichen, wenn das Objekt gut zugänglich für die aufnehmende Optik ist, liefern endoskopische Abbildungen Intensitätsbilder an schwer zugänglichen Stellen. Im folgenden wird eine Technologie vorgestellt, mit der beide Methoden zusammengeführt werden können. Optische Endoskope für schwer zugängliche Stellen Weil die Weißlichtinterferometrie nur an gut zugänglichen Stellen messen kann oder im anderen Falle Werkstücke zerstören muss, kann diese Methode häufig nicht zur 100%-Prüfung im Produktionsprozess eingesetzt werden. In diesen Fällen kann die Inspektion durch ein Endoskop sinnvoll sein.
Abb. 5.26. Schematische Darstellung eines Dieseleinspritzsystems (Common Rail Injektor). Der Ausschnitt zeigt eine endoskopische Abbildung eines Spritzlochs (Werkfoto: Robert Bosch GmbH)
5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind.
267
Das optische Endoskop zeichnet sich dadurch aus, dass die abbildenden Linsen so dicht vor das Objekt gebracht werden können, dass die Numerische Apertur NA (Gl. 5.2) Werte annimmt, die eine ausreichende Auflösung G ermöglichen. Die Auflösung wird wieder verschlechtert, weil sich eine Bildübertragungsoptik (z.B. ein Faserbündel oder ein Linsensystem) anschließt. Ein Beispiel für ein endoskopisches System im Fertigungseinsatz ist die Vermessung von Spritzlöchern in Düsen für Dieseleinspritzsysteme (Abb. 5.26). Das Endoskop ermöglicht die Aufnahme eines Spritzloches, welches durch eine 40 mm tiefe und 4 mm breite Bohrung betrachtet werden muss. Die optische Auflösung des Endoskops beträgt etwa 3,5 Pm. Eine Lösung in Freistrahloptik würde für diese Geometrie eine Numerische Apertur NA | 0.05 ergeben. Bei einer Beobachtungswellenlänge Om = 600 nm errechnet sich nach Gl. (5.2) daraus eine Auflösung von etwa 7,5 Pm. Diese einfache Abschätzung zeigt das höhere Auflösungsvermögen endoskopischer Systeme. Der wesentliche Vorteil der interferometrischen Technik besteht jedoch darin, dass die vollständige Höhengeometrie des zu untersuchenden Objektes wiedergeben kann, während durch eine Endoskopabbildung allein nur ein Intensitätsbild übertragen wird. Weißlichtinterferometer mit Endoskopen und Sonderoptiken Die genannten Beispiele aus der Praxis zeigen, dass die Weiterentwicklung von WLIs für den Einsatz in der Fertigung eine Zusammenführung des WLI mit einer endoskopischen Technik erfordert. So entstehen Ansätze für neue WLI-Systeme, die zum einen endoskopische Optiken und zum anderen auf das zu untersuchende Bauteil abgestimmte Optiken benutzen. Rundsichtoptiken Ein wichtiger Vertreter bauteil-spezifischer Sonderoptiken für WLIs sind sogenannte Rundsichtoptiken. Diese ermöglichen Abbildungen von Objekten, die sich unter einem großen Winkel relativ zur optischen Achse befinden (Abb. 5.27). Solche Rundsichtoptiken werden beispielsweise zur Vermessung von Ventilsitzen eingesetzt. Die wichtigsten Messgrößen, die mit einer WLI-Messung mit Rundsichtoptik erfasst werden können, sind der Kegelwinkel J, die Rundheit entlang der Dichtkante und Oberflächenkenngrößen. Abbildung 5.28 zeigt die WLI-Aufnahme eines Ventilsitzes, der in der Benzineinspritzung benutzt wird.
268
5 Optische Messtechnik
Abb. 5.27. Idealisierter Strahlengang einer Rundsichtoptik
Abb. 5.28. Das Intensitätsbild der CCD-Kamera während der WLI Messung eines Ventilsitzes (links; das gesamte Ventil ist in dem kleinen Ausschnitt zu sehen). Aus der WLI Messung des Ventilsitzes resultierende Höhendaten in Falschfarbendarstellung (rechts). (Quelle: Mit freundlicher Genehmigung von Zygo Corporation)
Vermessung von Innenkegeln mit konventionellen Systemen Geometrisch entspricht die Form von Ventilsitzen weitgehend der von Innenkegelflächen. Die Vermessung solcher Flächen mit einem WLI birgt hierbei eine Besonderheit, die näher untersucht werden soll. Zunächst kann man sich die Messung mit einem konventionellen WLI vorstellen. Hier wird im Referenzarm ein ebener Spiegel verwendet. Unter der Annahme idealer Flächen ergibt sich in der Abbildung des Innenkegels ein Intensitätsverlauf der erzeugten Interferenzstreifen von
ª I § 2S § J · ·º 2 cos¨ ¸ r ¸¸» , I (r ) v I 0 «1 M cos¨¨ I0 © 2 ¹ ¹¼ © Om ¬
(5.3)
wobei r die Radialrichtung auf der Kegelfläche darstellt, Io die mittlere Intensität und IM die durch die Interferenz erzeugte Intensitätsmodulation. Abbildung 5.29 zeigt die einfache geometrische Überlegung, die zu Gl. (5.3) führt.
5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind.
269
Abb. 5.29. Schematische Skizze zur Herleitung der Bedingung für Interferenzmaxima auf einer Innenkegelfläche bei einer interferometrischen Messung. Die vom Ventilsitz zurückreflektierten Strahlen besitzen durch die Oberflächenbeschaffenheit auch Richtungsanteile, die mit den einfallenden Strahlen zusammenfallen.
Aus Gl. 5.3 entnimmt man, dass die Intensität mit einer Periodenlänge
3 von 3 = Om/(2cosJ/2)
(5.4)
moduliert wird. Für eine Standardanwendung mit einem Kegelwinkel J 90q und einer Beobachtungswellenlänge Om = 600 nm folgt dann aus Gl. (5.4) eine Periodenlänge O • 425 nm. Gl. (5.3) und Gl. (5.4) benutzen vereinfachende Annahmen. Trotzdem lässt sich die notwendige Auflösung des abbildenden Systems abschätzen. Zur Sichtbarkeit der Interferenzstreifen in obigem Beispiel benötigt man eine Auflösung, die besser als 425 nm ist. Eine solche Auflösung ist durchaus erzielbar, allerdings nur mit interferometrischen Objektiven hoher Vergrößerung und großer Numerischer Apertur. Damit wird in konventionellen Systemen das Bildfeld soweit eingeschränkt, dass die Dichtfläche eines Ventilsitzes, typischerweise mit einem Durchmesser im Millimeterbereich, nicht in einer einzigen Messung vermessen werden kann. Angepasste Referenzspiegel Um die benötigte Auflösung zu verringern und damit beispielsweise größere Bildfelder zu realisieren, kann man auf das zu untersuchende Objekt angepasste Referenzspiegel verwenden. Nimmt man an, dass der Referenzspiegel genau die Geometrie des Objektes wiedergibt, so wird im Idealfall je nach optischer Weglängendifferenz zwischen Referenzarm und Objektarm das gesamte Bildfeld hell (Interferenzmaximum) oder dunkel (Interferenzminimum) erscheinen. In der Praxis reicht auch schon eine zum Objekt ähnliche Geometrie des Referenzspiegels. So wurde bei der Messung des Ventilsitzes ein sphärischer Spiegel als Referenz verwendet (Abb. 5.28).
270
5 Optische Messtechnik
Angepasste Optik Ein anderer Weg, die interferometrische Messung an Innenkegelflächen vorzunehmen, ist eine Anpassung der Optik an das zu vermessende Objekt. Das Design der Optik sollte durch die Wahl geeigneter Randbedingungen folgende Ziele anstreben:
x Ein geeigneter Aufbau des Linsensystems soll die optischen Weglängen im Objektzweig gezielt so beeinflussen, dass im Referenzzweig ein ebener Referenzspiegel einsetzbar ist. x Die Optik soll so ausgelegt werden, dass der gesamte interessierende Bereich ohne Nachfokussieren scharf abgebildet wird. Das Linsenssytem muss deshalb so aufgebaut sein, dass die Periodenlänge der durch die Interferenz erzeugten Intensitätsmodulation größer ist als der durch die optische Auflösung bedingte Abstand G von zwei getrennt messbaren Punkten. Für das optische Design folgt daraus die Bedingung für die optischen Weglängen von benachbarten Objektpunkten zum Detektor zu
/ Dif : / (r ) / (r G ) Om 2.
(5.5)
Spezielle Software für Optik-Design ermöglicht in den meisten Fällen die Erreichung beider Ziele. Weil die Erfüllung dieser Forderungen je nach zu untersuchendem Objekt nicht immer möglich ist, wurden für Kegelwinkel von 90° geeignete Systeme entwickelt. Zusammenführung von Rundsichtoptiken und Endoskopen Die im letzten Beispiel gezeigte Rundsichtoptik, die speziell auf das zu untersuchende Objekt angepasst ist, lässt sich in endoskopische WLISysteme integrieren. Abbildung 5.30 zeigt die Integration einer solchen Optik. In dieser Anwendung kommen folgende Vorteile des angepassten optischen Designs zum Tragen:
x Durch die scharfe Abbildung des gesamten interessierenden Bereichs ist während der Messung keine Relativbewegung zwischen Optik und Objektiv zur Nachfokussierung nötig. Damit sind auch Endoskopgeometrien wie beispielsweise gekrümmte oder sehr lange Endoskope einsetzbar. x Der weißlichtinterferometrische Tiefenscan wird mit der Bewegung eines ebenen Spiegels im Referenzarm durchgeführt. Der Referenzarm ist Teil einer interferometrischen Plattform. Die Änderung des abbildenden optischen Systems (Endoskop oder Sonderoptik) erfordert eine einmalige Veränderung der Länge des Referenzarms.
5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind.
271
x Die scharfe Abbildung des gesamten Bereichs und der Tiefenscan im Referenzarm ermöglichen eine standardisierte Software zur Steuerung und Auswertung der Messung. In anderen weisslichtinterferometrischen Konzepten, in denen für den Tiefenscan eine Bewegung zwischen Optik und Objekt erfolgt, können die Objektpunkte während der Variation des Abstands über das Bildfeld wandern. Dies erfordert zusätzlich zur Standardsoftware eine Software zur Objektpunktverfolgung.
Abb. 5.30. Schematische Skizze des Abbildungs- und Beleuchtungsstrahlengangs einer WLI-Plattform, die auch mit Sonderoptiken und Endoskopen arbeitet (Werkfoto: Robert Bosch GmbH)
Da die Optiken in Referenzarm und Objektarm verschieden sind, kann ein Phasenauswertealgorithmus zur Korrelogrammauswertung unter Umständen nicht eingesetzt werden. Eine teilweise Anpassung der beiden Interferometerarme ist jedoch durch die in Abb. 5.30 gezeigte Dispersionskompensation möglich. Dazu wird in den Referenzarm ein Glasteil eingesetzt, welches die Dispersion im Referenzarm der durch Abbildungsoptik und Endoskop eingeführten Dispersion im Objektarm angleicht.
272
5 Optische Messtechnik
5.9.4 Weißlicht-Heterodyn-Interferometer (WHI) Bei der Entwicklung des Weißlicht-Heterodyn-Interferometers (WHI) wurde das Ziel verfolgt, einen flexiblen optischen Abstandssensor mit hoher Auflösung und hoher Messrate zu konzipieren. Dieser Sensor sollte in einfacher Art und Weise an konventionelle Formmessmaschinen adaptiert werden können, um die bereits vielfach eingesetzten taktilen Messtaster zu ersetzen. Das WHI-Konzept basiert auf der Kombination eines kurzkohärenten faseroptischen Interferometers mit der Heterodyn-Technik sowie gleichzeitig mit der Zwei-Wellenlängen-Interferometrie. Im folgenden wird das Verfahren kurz beschrieben (Abb. 5.31).
Abb. 5.31. Prinzipdarstellung des Weißlicht-Heterodyn-Interferometers (WHI)
Das WHI besteht im Wesentlichen aus einem Modulations- (MOI) und einem Mess-Interferometer (MSI), die über eine Singlemode-Faser miteinander verbunden sind. Das MOI ist durch einen Mach-Zehnder FreistrahlAufbau realisiert, während das MSI als Michelson-Aufbau dargestellt ist. Das MSI enthält den Objekt-Arm, der den zu messenden Abstand definiert. Es stellt damit die eigentliche Mess-Sonde dar, die relativ zum Objekt mechanisch positioniert werden muss. Das Licht der breitbandigen Lichtquelle (1) durchläuft zunächst die beiden Arme des MOIs, in denen sich je ein akustooptischer Modulator (2)
5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind.
273
befindet. Das Licht wird anschließend in eine Faser eingekoppelt und nach deren Durchlauf in das MSI, d.h. in die Mess-Sonde geführt. Dort wird das Licht im Objekt- bzw. Referenzarm reflektiert und in entgegengesetzter Richtung wieder in die Faser eingekoppelt. Nach nochmaligem Durchlauf zurück durch die Faser wird die Lichtintensität mit den Photodioden der Detektoreinheit detektiert. Das MOI enthält im einen Arm ein Verzögerungselement (3) mit einer optischen Weglänge (Delay), die um ein Vielfaches größer ist als die Kohärenzlänge der verwendeten Strahlung lC. Dieses Delay wird im MSI wiederum durch entsprechend unterschiedliche Armlängen ausgeglichen. Nach Durchlauf des Gesamtsystems können gemäß der Kohärenzbedingung nach Gl. (5.1) nur diejenigen Teilstrahlen aus Objekt- und Referenzarm im MSI messbar miteinander interferieren, die auch im MOI die entsprechend zugehörigen Arme durchlaufen haben. Da diese Zuordnung eindeutig ist, wird auf diese Weise die Trennung zwischen Objekt- und Referenzstrahl im MOI erreicht und damit eine individuelle Modulation beider Teilstrahlen ermöglicht. Die Modulation erfolgt durch zwei akustooptische Modulatoren (2) im MOI die als Bragg-Zellen arbeiten und mit einer Differenzfrequenz von ': = 100 kHz betrieben werden. Dadurch werden die interferierenden Teilstrahlen aus Referenz- und Objektarm um den Betrag ': gegeneinander frequenzverschoben. Es ergibt sich dementsprechend eine mit der Heterodynfrequenz ': oszillierende Intensität, deren Phase M durch den zu messenden Abstand L und die optische Wellenlänge O gegeben ist:
4 S
M
O
L.
(5.6)
Die Abstandsbestimmung lässt sich mit dieser Heterodyn-Technik auf eine Phasenmessung eines zeitlich oszillierenden elektrischen Signals zurückführen. Die Messrate des WHIs ist damit durch die HeterodynFrequenz von ': = 100 kHz begrenzt. Aus der Phasenmessung ergibt sich nach Gl. (5.6) ein Eindeutigkeitsbereich für den Abstand von nur r O/4. Um diesen zu erweitern, wird das WHI zusätzlich mit zwei verschiedenen optischen Wellenlängen O1 und O2 betrieben, die aus dem Spektrum der breitbandigen Lichtquelle ('O • 100 nm) ausgeschnitten werden. Die spektrale Trennung erfolgt durch ein Gitter (4), das sich im Strahlengang vor den Fotodetektoren (5) befindet (Abb. 5.31). Die Auflösung des Gitters GO • 10 nm bestimmt damit die effektive Kohärenzlänge der Strahlung:
lC
O2 . GO
(5.7)
274
5 Optische Messtechnik
Die Detektoreinheit enthält für beide Wellenlängen O1 und O2 je eine Fotodiode, so dass analog zu Gl. 5.6 zwei Phasendifferenzen M1 und M2 bezüglich beider Wellenlängen gemessen werden. Der Abstand L lässt sich damit aus der Phasendifferenz (M1M2) berechnen:
L
/ M1 M 2 mit / 4 S
O1 O2 . O1 O2
(5.8)
Der Eindeutigkeitsbereich wird damit auf r //4 vergrößert, wobei / als synthetische Wellenlänge bezeichnet wird. Für die beiden realen Wellenlängen O1 = 1,56 µm und O2 = 1,53 µm beträgt die synthetische Wellenlänge / = 79,6 µm. Das MOI kann zusammen mit entsprechend vielen Fotodioden in der Detektoreinheit auch mit mehreren Mess-Sonden betrieben werden. Abbildung 5.31 zeigt als Beispiel den Betrieb einer zusätzlichen ReferenzSonde mit einer weiteren Fotodiode, die zu Kompensationszwecken verwendet wird. Auf diese Weise lässt sich eine hohe Stabilität gegenüber temperaturbedingten Veränderungen innerhalb des MOIs erreichen. Technische Realisierung Das Weißlicht-Heterodyn-Interferometer ‘WhitePoint’ wurde als industrietaugliches Messgerät gebaut und basiert auf weitgehend standardisierten Komponenten der Telekommunikationsindustrie. Die in Abb. 5.32 dargestellte Auswerteeinheit beinhaltet das Modulationsinterferometer, eine austauschbare Referenzsonde, die Signalauswerteelektronik und den Auswerterechner. Die Messsonde wurde als optischer Tastarm aufgebaut und ist mit einem einzelnem Lichtleiterkabel über einen standardisierten Stecker mit der Auswerteeinheit verbunden.
Abb. 5.32. Auswerteinheit WhitePoint
5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind.
275
Der Tastarm kann, je nach Messaufgabe, in verschiedenen Ausführungen realisiert werden und wird an eine Formmessmaschine angeschlossen. Eine einfache mechanische Schnittstelle des Tastarms (z.B. ein Zylinder mit einem Durchmesser von Ø = 4 mm) ermöglicht die Verwendung des optischen Tastsystems mit unterschiedlichen Formmessmaschinen. Abbildung 5.33 zeigt einen optomechanischen Tastarm auf einer Formmessmaschine. Der Tastarm hat neben einem optischem Ausgang zusätzlich eine Rubinkugel für die taktile Abtastung. Eine weitere Ausführung des optischen Tastarms ist in der Abb. 5.34 dargestellt. Dieser Tastarm wurde entwickelt, um Formmessungen in kleinen Bohrungen (Ø d 2 mm) durchzuführen. Der aus Keramik hergestellte Schaft des Taststifts hat einen Durchmesser von 1,4 mm und beinhaltet einen optischen Ausgang für eine Zylinderabtastung unter einem Winkel von 90° und einen zweiten für eine Kegelabtastung unter einem Winkel von 45°.
Abb. 5.33. Optomechanischer Tastarm auf einer Formmessmaschine der Fa. Mahr (Werkfoto: Robert Bosch GmbH)
276
5 Optische Messtechnik
Abb. 5.34. Optischer Tastarm mit zwei Ausgängen
Messungen Auflösung und zeitliche Stabilität des Interferometers Für die Prüfung der Auflösung und der zeitlichen Stabilität wird der optomechanische Tastarm mit einem Endmaß als Messobjekt verwendet. Der Tastarm und das Objekt sind auf einem schwingungsgedämpften Tisch fest montiert und gegen Luftbewegungen abgeschirmt. Die zeitliche Stabilität des optischen Tastsystems kann insbesondere durch die Bewegungen der Luft mit unterschiedlichen Temperaturen beeinflusst werden. Zur Bestimmung der Auflösung des Systems (abstandsäquivalentes Rauschen) wurde die Standardabweichung V der Messwerte aus einer Messung mit 60 Sekunden Dauer zu V = 0,75 nm ermittelt. Zur Bestimmung der zeitlichen Stabilität wurde eine Ausgleichsgerade aus den Messwerten innerhalb einer Messzeit von 60 s errechnet und die maximale Abstandsänderung ermittelt. Die zeitliche Stabilität (Drift) unter Laborbedingungen beträgt 1,2 nm/min. Beispielmessung Das neuentwickelte optische Tastsystem mit einer Formmessmaschine wird eingesetzt, um hoch auflösende Formmesssungen, beispielsweise Rundheit, Geradheit, Parallelität an präzisen Teilen der Automobilkomponenten durchzuführen. Abbildung 5.35 zeigt die Ergebnisse einer flächenhaften Messung an einem Präzisionskolben, gemessen mit diesem optischen Tastsystem. Bei der Messung wurde ein 0,5 mm hoher Bereich mit 11 Wendellinien (4.000 Messpunkte/Wendel) abgetastet. Die maximale Formabweichung des gemessenen Zylinders beträgt 400 nm.
5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind.
277
Abb. 5.35. Messung am präzisen Kolben. a) Projektion der Messergebnisse in der Ebene senkrecht zur Zylinderachse. b) Darstellung der3D-Zylindermessung
278
5 Optische Messtechnik
5.9.5 Rückführung der Weißlichtinterferometrie auf amtliche Normale Die Voraussetzung für den Einsatz der Weißlichtinterferometrie in der industriellen Messtechnik ist die Rückführung der Messgrößen auf amtliche Normale. Als Normale werden im allgemeinen hochpräzise Maßverkörperungen verwendet, die von einer amtlichen Stelle (z.B. von der Physikalisch Technischen Bundesanstalt (PTB)) kalibriert werden. Für die taktile Messtechnik sind im industriellen Umfeld viele höchstpräzise kalibrierte Normale im Einsatz. Das Ziel ist, diese Normale auch für die Rückführung der optisch-interferometrischen Messtechnik verwenden zu können. Wie oben beschrieben, haben Weißlichtinterferometer in den verschiedenen Raumrichtungen ein unterschiedliches Auflösungsvermögen. In den beiden lateralen Raumrichtungen liegt die Auflösung im µm-Bereich; in der vertikalen Raumrichtung ist dagegen eine Auflösung in der Größenordnung weniger nm möglich. Aus diesem Grund müssen für die verschiedenen Raumrichtungen unterschiedliche Normale verwendet werden. Rückführung der lateralen Raumrichtungen Kommerzielle WLI arbeiten im allgemeinen mit einer konventionellen Mikroskopoptik. Aus diesem Grund können die Normale, die aus der konventionellen Mikroskopie bekannt sind, für die Rückführung verwendet werden. Ein Beispiel dafür ist das Objektmikrometer, das aus einer Quarzglasplatte besteht, auf der durch Aufdampfen einer dünnen Metallschicht und anschließender Strukturierung Linienstrukturen erzeugt werden, die einen µm-Maßstab bilden. Abbildung 5.36 a zeigt das Ergebnis der Vermessung eines solchen Objektmikrometers mit einem Weißlichtinterferometer. Aufgrund der großen Höhenauflösung ist bei der interferometrischen Messung im Gegensatz zu der konventionellen Mikroskopie hier auch die Höhe der Struktur messbar. Rückführung der vertikalen Raumrichtung Für die Rückführung der vertikalen Raumrichtung stehen unterschiedliche Normale zur Verfügung. Es gibt Normale mit stufenartigen und rillenartigen Vertiefungen, die jeweils das Tiefenmaß verkörpern. Abbildung 5.36b zeigt das Ergebnis der Vermessung einer Rille eines Tiefeneinstellnormals, das auch zur Rückführung von Tastschnittgeräten (taktiles Oberflächenmessgerät) eingesetzt wird. Im Gegensatz zur taktilen Vermessung ist auch hier die Rille in allen Raumrichtungen messbar.
5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind.
279
Abb. 5.36. Weißlichtinterferometer-Aufnahmen a) eines Objektmikrometers, b) eines Tiefeneinstellnormals
Rückführung von Ebenheit und Rauheitskenngrößen Die Ebenheit von Bauteilen ist in der Industrie von hoher Bedeutung (z.B. für die Charakterisierung von Plandichtflächen). Zur direkten Rückführung des Merkmals Ebenheit gibt es Ebenheitsnormale, die in unterschiedlichen Ebenheitsklassen verfügbar sind. In den Ebenheitsnormalen sind genau spezifizierte „Unebenheiten“ verkörpert. Abbildung 5.37 zeigt beispielhaft die Oberfläche eines Ebenheitsnormals. Für die Rückführung der Rauheitskenngrößen können die Normale verwendet werden, die auch für die taktile Rauheitsmessung mit dem Tastschnittgerät verwendet werden. Diese Raunormale sind in allen metallverarbeitenden Industriebetrieben in unterschiedlichsten Rauheitsklassen im Einsatz. Die Auswertung der Rauheitskenngrößen erfolgt mit den gleichen Auswertestrategien wie bei der taktilen Messtechnik, d.h. es werden gleichartige Filter und vergleichbare Auswertelängen verwendet. Die Ergebnisse der interferometrischen Messung (Abb. 5.38) sind sehr gut vergleichbar mit denen der taktilen Messung, wenn die laterale Auflösung des Weißlichtinterferometers mit dem Tastspitzendurchmessers der taktilen Messung vergleichbar ist.
280
5 Optische Messtechnik
Abb. 5.37. Ebenheitsnormal aufgenommen mit einem Laserinterferometer
Abb. 5.38. Rauhnormal aufgenommen mit einem Weißlichtinterferometer.
5.10 Zusammenfassung und Ausblick Mit der Weißlichtinterferometrie (WLI) steht heute eine Technik zur schnellen und hochpräzisen Vermessung von Funktionsflächen zur Verfügung. Wie am Beispiel einer Rundsichtoptik mit Endoskop gezeigt wurde, ist eine Anwendung der WLI zur Qualitätskontrolle für viele Bauteile möglich. Besondere Geometrien (z.B. von Ventilsitzen) lassen sich auch dann vermessen, wenn sie sich an schwer zugänglichen Stellen befinden. Die hier beschriebene Kombination eines WLI mit einem Endoskop bietet häufig die einzige Methode zur hochpräzisen Vermessung schwierig zugänglicher Funktionsflächen. Für einen breiten Einsatz der WLI in der Fertigung wird es entscheidend sein, interferometrische Systeme zu entwerfen, die durch ihr Design, den Messablauf und die Auswertungsmethode unempfindlich gegenüber Störungen durch Umwelteinflüsse sind.
5.11 Interferometrische Submikrometer-Messtechnik in der Automobilind.
281
Aufbauend auf dem Prinzip des Weißlicht-Heterodyn-Interferometers (WHI) wurde ein neuartiges interferometrisches Tastsystem entwickelt und industrietauglich realisiert. Das Messgerät besteht aus einer Auswerteeinheit und einem kleinen, robusten Tastarm, der in unterschiedliche Formmessmaschinen integriert werden kann. Die Auflösung des Systems beträgt 0,75 nm. In Verbindung mit einer Formmessmaschine wird das Tastsystem für höchstpräzise, flächenhafte Formmessungen an Teilen in der Automobilindustrie eingesetzt.
5.11 Literatur DeGroot P, Deck L (1995) Surface profiling by analysis of white-light interferograms in the spatial frequency domain. J mod Optics 42:389401 DeGroot P, Colonna de Lega X (2003) Valve cone measurement using white light interference microscopy in a spherical measurement geometry. Opt Eng 42:12321237 Drabrek P (1999) Interferometrische Messeinrichtung zum Erfassen der Form oder des Abstandes insbesondere rauer Oberflächen. Europ. Patent, internat. Veröffentlichungsnr. WO 99/44009 Dresel T, Häusler G, Venzke H (1992) Three-dimensional sensing of rough surfaces by coherence radar. Appl Opt 31:919925 Ettl P, Schmidt B, Schenk M, Laszlo I, Häusler G (1998) Roughness parameters and surface deformation measured by „Coherence Radar“. In: Proc. of the Internat. Society for Optical Engineering (SPIE) 3407:133140 Harasaki A, Schmit J, Wyant JC (2000) Improved vertical scanning interferometry. Appl Opt 39:21072115 Hecht E (1997) Optics. Addison-Wesley, Reading, MassLindner M.W (2002) White-light interferometry via an endoscope. In: Proc of the Internat. Society for Optical Engineering (SPIE) 4777:90101 Rao Y J, Jackson D A (1996) Recent progress in fibre optic low-coherence interferometry. Meas Sci Technol 7:981999
6 Produktionstechnik
6.1 Übersicht Die Photonik war in den letzten Jahren der große Innovationstreiber in den fertigungstechnischen Verfahren. Dies hat folgende Gründe: x Gezielte Entwicklung von Laser-Strahlquellen für fertigungstechnische Aufgabenstellungen. x Entwicklung und Integration der Laseranlagen in ein fertigungstechnisches Systemkonzept. Das bedeutet, dass die fertigungstechnischen Prozesse gesamtheitlich entworfen werden mussten. Dies umfasste neben den geeigneten Laserstrahlquellen softwaretechnisch entsprechende CAD/CAM-Lösungen, von der Anlagenseite entsprechende flexible Handhabungselemente (z.B. Roboter). Dazu kamen Elemente zur Prozess-Steuerung und für das Qualitätsmanagement. Im Folgenden werden deshalb zunächst die Laserstrahlquellen vorgestellt und daran anschließend aufgezeigt, in welchen Bereichen der Fertigungstechnik diese eingesetzt werden können. 6.1.1 Laserstrahlquellen Jeder Laser benötigt ein aktives Medium, in dem eine Besetzungsinversion herbei geführt werden muss (Abschn. 1.4.3). Je nach Art dieses Mediums werden verschiedene Lasertypen unterschieden (Abb. 6.1). Diese werden im Folgenden beschrieben. Gaslaser Je nach verwendeter Art des Gases unterscheidet man zwischen folgenden Lasertypen: x Molekül-Laser: Der CO2-Laser wird in der Fertigungstechnik am häufigsten eingesetzt. Dem Gas CO2 sind noch N2 und He zugesetzt. Die Laserübergänge bei CO2 sind bestimmend. N2-Moleküle übertragen die Energie durch Stöße auf die CO2-Moleküle. Die Gastemperatur von CO2
284
6 Produktionstechnik
Abb. 6.1. Übersicht über verschiedene Typen von Laserstrahlquellen o
darf dabei 150 C nicht überschreiten, weil sonst der Lasereffekt nicht mehr eintreten kann. Helium hat eine gute Wärmeleitfähigkeit und transportiert die frei werdende Wärme nach außen. Abbildung 6.2 zeigt die wichtigsten Bauformen eines CO2-Lasers. Die Wellenlänge liegt bei 10,6 Pm (fernes Infrarot). Die Haupteinsatzgebiete liegen bei der Materialbearbeitung.
Abb. 6.2. Laserbauformen des CO2-Lasers: a) sealed tube, b) Wellenleiter, c) und d) Wellenleiter mit Gasumwälzung (Quelle: Hecht, J. Laser Focus World (28), 1992)
6.1 Übersicht
285
Abb. 6.3. Prinzipieller Aufbau eines HeNe-Lasers (Quelle: Hecht, J. Laser Focus World (28), 1992)
x Neutralatom-Laser: Der wichtigste Laser ist der HeNe-Laser (Abb. 6.3). Das Lasermedium ist ein Gasgemisch aus Helium (5 bis 10 mal mehr) und Neon. Elektrisch angeregt wird zunächst das Helium, das seine Energie nahezu vollständig an das Neon abgibt. Die Wellenlänge liegt bei 633 nm (rot). Die Einsatzgebiete sind im Wesentlichen die Messtechnik. +
x Ionen-Laser: Am häufigsten wird der Ar -Laser eingesetzt. Im grünen bis ultravioletten Spektralbereich werden Ausgangsleistungen bis zu 10 W erreicht. x Excimer-Laser: Der wichtigste Vertreter ist der ArF-Laser. Er hat eine Wellenlänge von 175 nm bis 483 nm (ultraviolett). Eingesetzt wird er in der Materialbearbeitung von Kunststoff, Glas, Keramik und im menschlichen Auge zur Korrektur von Fehlsichtigkeit, ferner in der Messtechnik und in der Fotochemie. Festkörperlaser Festkörperlaser bestehen aus Kristallen oder Gläsern, die mit optisch aktiven Ionen dotiert sind. Sie werden optisch, mit Anregungslampen oder mit einem Diodenlaser gepumpt. x Rubin-Laser: dieser Laser wurde als erster entdeckt. Er hat eine Wellenlänge von 694 nm (Abb. 1.46). x Nd:YAG-Laser: Dies ist der am meisten verbreitete Festkörperlaser (Abb. 6.4). Das laseraktive Medium besteht aus einem Yttrium-Aluminium-Granat-Kristall, in dem Neodym-Ionen eingebettet sind. Die Wellenlänge liegt bei 1,064 Pm bis 1,3 Pm. Es sind Leistungen bis zu 1,8 kW möglich. Durch nachgeschaltete Verstärkerstufen kann die Ausgangsleistung weiter erhöht werden. Die Hauptanwendungsfelder sind die Materialbearbeitung. x Nd:Glas-Laser: Die Wellenlänge liegt bei 1,06 Pm (nahes Infrarot).
286
6 Produktionstechnik
Abb. 6.4. Prinzipieller Aufbau eines optisch gepumpten Nd:YAG-Lasers (Quelle: Hecht, J. Laser Focus World (28), 1992)
Halbleiterlaser (Diodenlaser) Der Laser besteht aus einem Halbleitermaterial, das elektrisch angeregt wird. Der Aufbau ist ähnlich dem einer LED. Der Laser-Effekt kommt durch die Rekombination von Ladungsträgern in der Sperrschicht zustande (Abb. 6.5 und Abschn. 1.5.3)
Abb. 6.5. Prinzipieller Aufbau eines Halbleiterlasers (Quelle: Hecht, J. Laser Focus World (28), 1992)
6.1 Übersicht
287
Im Unterschied zu einer LED kann die Laserdiode mit einer höheren Stromdichte betrieben werden. Die Kristall-Endflächen dienen als Spiegel des optischen Resonators. Typische Vertreter sind GaInP-Laser (670 nm bis 680 nm) und GaAlAs-Laser (780 nm bis 880 nm). Die Halbleiterlaser ermöglichen kleine Abmessungen. Deshalb werden sie häufig als Lichtquellen in CD-Spielern, bei optischen Plattenspeichern, bei Laserprintern und in der Nachrichtentechnik eingesetzt. Bei höheren Leistungen ab 2,5 kW können sie auch in der Materialbearbeitung Verwendung finden. Flüssigkeitslaser Sie bestehen aus organischen Farbstoffen in stark verdünnter Lösung und werden optisch mit Blitzlampen oder Lasern gepumpt. Sie finden Einsatz in der Spektroskopie, weil sie von 300 nm bis 1,2 Pm einstellbar sind. 6.1.2 Strahlqualität Schwingt der Laserresonator (Abschn. 1.4.3) in der TEM00-Grundmode, so weist die Intensitätsverteilung des Laserstrahls senkrecht zur Ausbreitungsrichtung ein Gaußprofil auf (Abb. 6.6):
I (r )
2
I 0 e - 2( r / w) .
(6.1) 2
Im Abstand w vom Mittelpunkt ist die Intensität auf 1/e des Maximalwerts I0 zurückgegangen. Dieser Abstand wird als Radius eines Gaußstrahls bezeichnet; d = 2w ist der Strahldurchmesser.
Abb. 6.6. Intensitätsverlauf bei einem Gauß´schen Strahl
Der Strahlradius w vergrößert sich mit zunehmendem Abstand z vom Laser gemäß
w( z )
w0
§ z 1 ¨¨ © zR
2
· ¸¸ , mit z R ¹
w02 S
O
.
(6.2)
288
6 Produktionstechnik
Der kleinste Radius w0 liegt an der Strahltaille bei z = 0 (Abb. 6.7). z R w02 S / O wird als Rayleigh-Länge bezeichnet. In großem Abstand (z >> zR) wächst nach Gl. (6.2) der Radius linear mit der Entfernung gemäß w0 z zR
w( z )
O z. w0S
(6.3)
Abb. 6.7. Zusammenhang zwischen Taillendurchmesser und Divergenzwinkel bei einem Gauß´schen Strahl
Der Divergenzwinkel Ĭ0 (Abb. 6.7) ist typischerweise in der Größenordnung von etwa 1 mrad. Damit gilt Ĭ0 • tan Ĭ0 und aus Gl. (6.3) folgt
40
2
w0 zR
d0 zR
2
O . w0S
(6.4)
Nun zeigt sich die interessante Tatsache, dass das Produkt aus Taillenradius w0 und Divergenzwinkel Ĭ0 beim Durchgang durch optische Systeme konstant bleibt. Für das Strahlparameterprodukt eines Gauß´schen Strahls gilt also (Abb. 6.7) w0 4 0 2
w0c 4 0c 2
O . S
(6.5)
Ist der Weg eines Laserstrahls vom Laser bis zu einem Werkzeugkopf zu lang, dann macht sich die Divergenz störend bemerkbar. Aus diesem Grund weitet man gerne den Laserstrahldurchmesser mithilfe eines Teleskops auf. Wird der Strahldurchmesser vergrößert, dann sinkt nach Gl. (6.5) der Divergenzwinkel. Der Strahl kann also über längere Entfernungen geführt werden, ohne dass es zu einer nennenswerten weiteren Aufweitung kommt. Am Bearbeitungsort wird der Laserstrahl dann durch ein Linsensystem fokussiert.
6.1 Übersicht
289
Bei der Fokussierung eines Laserstrahls durch eine Linse der Brennweite f c (Abb. 6.7) entsteht in der Gegend des bildseitigen Brennpunkts ein Fleck mit dem Taillenradius
w0c | f c 4 0 2
O
fc
w0 S
.
(6.6)
Kleine Fleckdurchmesser erreicht man demnach bei kurzer Brennweite der Linse und großem Strahldurchmesser. Der kleinste erreichbare Fleckdurchmesser entspricht etwa der Wellenlänge O des Lichts. Der Bereich links und rechts der Taille (Abb. 6.7), in dem der Fleckdurchmesser auf d 0c 2 ansteigt (die Fläche wird verdoppelt), wird als Schärfentiefe bezeichnet. Aus Gl. (6.2) folgt dafür
'z
2 zRc
2
w0c2 S
O
.
(6.7)
Für Gaußstrahlen ist das Strahlparameterprodukt nach Gl. (6.5) konstant und nur abhängig von der Wellenlänge O. In der Praxis zeigen Laserstrahlen Abweichungen vom idealen Gaußprofil nach Gl. (6.1). Dies kann am Auftreten höherer transversaler Moden liegen oder an inhomogener Verstärkung im Lasermedium. In diesem Fall ist der Strahldurchmesser um einen Faktor M größer als der des idealen Gaußstrahls. Der Divergenzwinkel ist um denselben Faktor M vergrößert im Vergleich zum Wert eines Gaußstrahls. Damit wird das Strahlparameterprodukt von Gl. (6.5) korrigiert auf
w0 4 0 2
O 2 M S
O 1 . S K
(6.8)
2
M wird als Beugungsmaßzahl bezeichnet, K als Strahlpropagationsfaktor. Diese Größen sind nach DIN EN ISO 11145 ein Maß für die Qualität eines Laserstrahls und geben an, wie nahe das Strahlparameterprodukt an der Beugungsbegrenzung eines vollkommenen Gaußstrahls ist. Für einen idea2 2 len Gaußstrahl ist M = 1/K = 1, reale Strahlen haben M > 1 bzw. K < 1. 2 Bei einem CO2-Laser mit einer Ausgangsleistung bis 3 kW ist M < 1,25. Mit zunehmender Leistung steigt die Beugungsmaßzahl an. Beispiel: Ein CO2-Laser mit Taillendurchmesser d0 = 8 mm emittiert eine Leistung von ĭ = 1 kW bei der Wellenlänge O = 10,6 Pm. Er wird mit einer Linse der Brennweite f ´ = 100 mm fokussiert. Wie groß ist der Durchmesser des fokussierten Laserflecks, die Schärfentiefe sowie die Bestrahlungsstärke (mittlere Leistungsdichte) im Fokus?
290
6 Produktionstechnik
Lösung: Unter der Annahme eines idealen Gaußstrahls gilt nach Gl. (6.6) für den Fleckdurchmesser d 0c Gl. (6.7) 'z stärke E
2
) S w0c 2
2w0c
w0c2 S
O
2fc
O = 170 Pm. Die Schärfentiefe beträgt nach w0 S
4,3 mm . Nach Tabelle 1.9 ist die mittlere Bestrahlungs-
4,4 1010
W m2
. Ƒ
6.1.3 Fertigungsverfahren und Materialien In Tabelle 6.1 sind die Lasertypen zusammengestellt, die für die einzelnen Fertigungsverfahren eingesetzt werden. Tabelle 6.1. Fertigungsverfahren und die wichtigsten zu bearbeitenden Materialien in der Photonik (Lasertypen: 1: CO2-Gaslaser; 2: Excimer-Gaslaser; 3: Festkörperlaser (z.B. Nd:YAG); 4: Halbleiterlaser) Verfahren Urformen Schmelzen Sintern Umformen Trennen Schneiden Bohren, Abtragen Fügen Schweißen Löten Beschichten (DMD) Stoffeigenschaften ändern Härten Umschmelzen Markieren und Beschriften Markieren Beschriften Strukturieren und Mikrobearbeiten
Eisen-Metalle
NE-Metalle
Kunststoffe
Verbundw.
1, 3 1
1, 3 1
1 1
1 1
3
3
1, 3 1, 3
1, 2, 3 1, 3
1, 3 1, 3
1, 3 1, 3
1, 3, 4 1, 3, 4
1, 3 2
1, 3 2, 3
1, 3, 4 -
1, 3, 4
1, 3, 4
1
1
1, 3, 4 1, 3, 4
1, 3, 4
1, 3 1, 3
1, 3 1, 3
1, 3 1, 3
1, 3 1, 3
2
2
2
2
6.2 Urformen
291
6.2 Urformen Beim Urformen wird nach DIN 8580 einem formlosen Werkstoff (z.B. pulverförmigem Material oder flüssigem Metall) eine Form gegeben. Der Vorgang der Formgebung läuft meist in einem längeren Zeitraum unter definiertem Druck und festgelegtem Temperaturverlauf ab. Beim Einsatz von Lasern verzichtet man auf die Parameter Zeit und Druck. Das Ausgangsmaterial wird dabei nur für kurze Zeit durch den Laser gezielt erhitzt. Dieses Verfahren betrifft im Wesentlichen nur die Oberflächen der Materialien und wird als selektives Verfahren bezeichnet. 6.2.1 Selektives Laser-Sintern (SLS) Abbildung 6.8 zeigt die einzelnen Prozess-Schritte beim selektiven LaserSintern. Dieses Verfahren wird auch Laserformen genannt und könnte ebenfalls zum Fertigungsverfahren Beschichten gerechnet werden. Zugrunde liegt ein 3D-CAD-Modell. Es zerlegt den Körper in einzelne Schichten mit festgelegter Schichtdicke. Auf diese Weise wird es möglich, dass ein Körper schichtweise aufgebaut wird. Dazu wird die Bauplattform auf die entsprechende Höhe gefahren, das Schichtpulver aufgebracht, durch den Laser erhitzt, bis die Schicht gesintert ist. Anschließend wird das Bauteil abgesenkt und die Prozessschritte: Aufbringen des Pulvers – Erhitzen durch Lasereinwirkung – Sintern wiederholt. Auf diese Weise entsteht ein schichtweise aufgebauter Körper, der auch aus unterschiedlichen Materialien zusammengesetzt werden kann. Das Laser-Sintern hat folgende Vorteile:
Abb. 6.8. Schema des Ablaufs beim Selektiven Laser-Sintern (Werkfoto: TRUMPF)
292
6 Produktionstechnik
x Alle Werkstoffe verwendbar, die sich mit Lasern schweißen lassen. x Wenig Werkstoffabfall im Vergleich zu spanenden Fertigungsverfahren. x Herstellung des Bauteiles in einem Fertigungsverfahren (schneller, weniger Platz und weniger Fehler). x Durch Schichtverfahren ist annähernd jede Geometrie herstellbar. Sintern von Kunststoffen Zunächst wird die Kammer bis knapp unter die Schmelztemperatur des Kunststoffes vorgeheizt. Anschließend wird das Kunststoffpulver zugegeben, das mit einem CO2-Laser mit einer Ausgangsleistung von bis zu 50 W aufgeschmolzen wird. Polyamid, Polycarbonat und Polystyrol werden am häufigsten eingesetzt. Mit SLS werden Prototypen für das Design oder zur Messung der Funktionseigenschaften hergestellt. Es können, je nach Anwendungsart, weitere Fertigungsprozesse wie Schleifen, Polieren oder Versiegelung der Oberfläche folgen. Sintern von Metallen Zum Sintern von Metallen werden Pulvergemische eingesetzt. Eine Komponente ist ein niedrig schmelzendes Bindematerial und eine andere Komponente (z.B. ein Kunststoff) ein hoch schmelzender Werkstoff. Der Laserstrahl (CO2-Laser mit über 200 W Ausgangsleistung) schmilzt die niedrig schmelzende Komponente auf und bindet die hochschmelzenden Teile zusammen, die in der festen Phase bleiben. Auf diese Weise entstehen Pulversysteme (derzeit auf Stahl- und Bronzebasis) mit guten Benetzungseigenschaften. Tabelle 6.2 zeigt deren mechanische Eigenschaften. Tabelle 6.2. Mechanische Eigenschaften von SLS-Teilen (eos-gmbh) Eigenschaft Restporosität Zugfestigkeit Bruchdehnung Rauhigkeit
Pulver auf Bronzebasis 20% bis 25% 120 N/mm2 bis 180 N/mm2 4,2% 50 µm bis 60 µm
Pulver auf Stahlbasis 2% bis 5% 500 N/mm2 bis 550 N/mm2 7% 50 µm
6.2.2 Selektives Laser-Schmelzen (SLM: Selective Laser Melting) Mit einem Nd:YAG-Laser (120 W Ausgangsleistung) wird Metallpulver vollständig aufgeschmolzen und die darunter liegende Schicht teilweise angeschmolzen. Durch dieses Verfahren können Bauteildichten von nahezu 100% erreicht werden. Deshalb entfallen weitere Fertigungsschritte zur
6.3 Umformen
293
Erhöhung der Dichte. Die Deckfläche eines SLM-Bauteiles weist eine Schuppenstruktur auf, wie sie beim Laserschweißen üblich ist (Abschn. 6.4.1). Deshalb kann eine Nacharbeit der Oberfläche notwendig werden. Die mechanischen Eigenschaften von SLM-Bauteilen sind durchaus mit denen von Gussteilen vergleichbar (Tabelle 6.3). Tabelle 6.3. Mechanische Eigenschaften von SLM-Bauteilen (Quelle: Poprawe) Eigenschaft Härte Bruchdehnung Dehngrenze Zugfestigkeit
Edelstahl X2CrNiMo17-13-2 240 HV 0,1 15% 450 N/mm2 550 N/mm2
Werkzeugstahl X38CrMoV5-1 52 HRC 2,3% 1.000 N/mm2 1.720 N/mm2
Titan TiAlV4 435 HV 10 6% 1.040 N/mm2 1.140 N/mm2
Für die SLM-Bauteile gibt es eine Fülle von Anwendungen. Abbildung 6.9 zeigt Applikationen im Werkzeug- und Formenbau, in der Luftund Raumfahrt und in der Medizintechnik.
Abb. 6.9. Beispiele für SLM-Anwendungen (Werkfoto: TRUMPF)
6.3 Umformen Umformen ist ein plastisches Ändern der Form eines festen Körpers. Dabei werden der Stoffzusammenhalt und die Masse beibehalten. Die Eigenschaften des Materials können sich allerdings ändern. Mit einem gepulsten
294
6 Produktionstechnik
Nd:YAG-Laser können berührungslos Biegeprozesse (Veränderung der Richtung) und Stauchprozesse (Verkürzung der Länge) realisiert werden, die vor allem in der Mikrosystemtechnik (z.B. bei der Herstellung von Aktuatoren) eine Rolle spielen. Wichtige Parameter der Laserstrahlquelle sind die Leistung, die Pulsdauer und die Wellenlänge; von der Maschine die Parameter Strahlformen und Verfahrgeschwindigkeit. Die Laserstrahlen heizen Bleche in einem sehr begrenzten Bereich kurzfristig auf. Dadurch entstehen starke Temperaturunterschiede (Gradienten) die zu Spannungen und Umformungen mit folgenden Wirkungen führen:
x Das Blech wird entlang einer geraden Kante bestrahlt und in Dickenrichtung ergibt sich ein großer Temperaturgradient. Dann biegt sich das Blech zur Strahlquelle hin. x Das Blech wird entlang einer Kante so bestrahlt, dass der Temperaturgradient in Dickenrichtung gering ist. Dann wird der vorhandene Winkel vergrößert und zwar gleichgültig, ob er dem Laserstrahl zugewandt oder abgewandt ist. x Das Blech wird an verschiedenen Stellen mit kleinen Temperaturgradienten über die Blechdicke erwärmt. Dadurch entstehen räumliche Krümmungen des Bauteils. In Abhängigkeit vom thermischen Ausdehnungskoeffizienten Dth, der Dichte ȡ, der spezifischen Wärmekapazität cp, dem Absorptionsgrad A, der Laserleistung PL, der Verfahrgeschwindigkeit vf und der Blechdicke s0 ergibt sich für den Biegewinkel DB´folgender Zusammenhang:
DB
3
D th A PL 1 U c p v f s0 2
(6.9)
6.4 Trennen Beim Trennen wird die Form des festen Körpers so verändert, dass der Stoffzusammenhalt im Ganzen vermindert wird. 6.4.1 Schneiden Schneiden mit dem Laserstrahl geschieht im Wesentlichen mit fünf unterschiedlichen Verfahren, die in Abb. 6.10 zusammengestellt und kurz erläutert sind. Im Folgenden wird das Laserstrahl-Brennschneiden ausführlicher behandelt.
6.4 Trennen
295
Abb. 6.10. Verfahren des Schneidens mit dem Laserstrahl
Laserstrahl-Brennschneiden Als Schneidgas wird Sauerstoff verwendet mit dem Vorteil, dass das flüssige Eisen nicht nur aus der Fuge geblasen wird, sondern auch verbrennt.
Abb. 6.11. Prinzip des Laser-Brennschneidens (Werkfoto: Fraunhofer IPT)
296
6 Produktionstechnik
Bei diesem Verbrennungsvorgang zu FeO entsteht eine Reaktionsenthalpie von 4.800 kJ pro kg verbranntem Eisen. Deshalb erfolgt eine zusätzliche Energiezufuhr zwischen Laserstrahl und Werkstück. Nachteilig kann sich die dünne Oxidhaut von FeO auf der Schnittkante auswirken. Diese kann beim Lackieren oder Schweißen Probleme bereiten. Industriell eingesetzt werden Laser zum Schneiden von Baustahl bis 20 mm, von Edelstahl bis 15 mm und von Aluminium bis 10 mm. Das Prinzip des LaserstrahlBrennschneidens ist in Abb. 6.11 zu sehen. Für das Schneiden ist die Leistung PC erforderlich. Sie ist die Summe aus der Aufwärmleistung PW, der Schmelzleistung Pm und der Verlustleistung aus der Wärmeleitung PHL. PC = PW + Pm + PHL.
(6.10)
Die Summe aus der Aufwärmleistung PW und der Schmelzleistung Pm ist von der Blechdicke bC, die Dicke der Schmelzzone d, der Schneidgeschwindigkeit vC, der Werkstückdichte ȡ, der spezifischen Wärmekapazität des Bleches cp, der Prozesstemperatur TP, der Umgebungstemperatur T und der spezifischen Schmelzenthalpie hm des Bleches abhängig. Es gilt: Pw + Pm = bC d vC ȡ (cp (TP – T) + hm).
(6.11)
Zur Bestimmung der Verlustleistung aus der Wärmeleitung PHL geht neben der Wärmeleitfähigkeit K auch die Peclet-Zahl Pe in folgender Weise mit ein: 0,36
PHL = 4 K d (Tm – T) (Pe/2) .
(6.12)
Die absorbierte Laserstrahl-Leistung Pabs stellt die zweite Leistungsquelle dar. Sie errechnet sich aus dem Produkt von Laserleistung am Werkstück PL und dem Absorptionsgrad A. Pabs = A PL.
(6.13)
Beim autogenen Brennschneiden wird die Schneidleistung PC alleine durch die Verbrennungsleistung PR geliefert, d. h., der Schneidprozess trägt sich alleine ohne zusätzliche Zufuhr von Energie in den Schneidbereich. Das Werkstück wird dabei üblicherweise auf die Zündtemperatur aufgeheizt (z.B. bei Baustahl mit einer Brennerflamme auf 1.000 °C). Der große Vorteil besteht darin, dass es keine maximalen Blechdicken gibt. So wurden beispielsweise bereits über 3 m dicke Stahlplatten auf diese Weise geschnitten. Während des gesamten Schneidprozesses muss die Schneidoberfläche auf der Zündtemperatur gehalten werden. Die Brennerflamme verhindert zusätzlich die Zunderbildung. Abbildung 6.12 zeigt die Strahlführung im Schneidkopf einer Laserschneidanlage und Abb. 6.13 den Schneidkopf über einer bearbeiteten Werkstücktafel.
6.4 Trennen
297
Abb. 6.12. Strahlführung im Strahlkopf einer Laserschneidanlage: 1: Umlenkspiegel, 2: Adaptiver Telekopspiegel, 3: Phaseenschieber, 4: Umlenkspiegel, 5: Umlenkspiegel in der Bewegungseinheit, 6/1: Autofokusspiegel, 6/2: Umlenkspiegel, 7: Linsenoptik Schneidkopf, S: Strahl (Werkfoto: TRUMPF)
Abb. 6.13. Bearbeitete Werkstücktafel mit Schneidkopf (Werkfoto: TRUMPF)
298
6 Produktionstechnik
6.4.2 Bohren und Abtragen Nach DIN 8580 und DIN 8990 versteht man unter Laserstrahlbohren das Trennen durch thermisches Abtragen mit dem Laserstrahl. Dieses Verfahren hat folgende Vorteile:
x Kein Verschleiß des Werkzeuges. x Hohe Flexibilität. x Gute Automatisierbarkeit. Abbildung 6.14 zeigt die unterschiedlichen Verfahren und deren Einsatzbereiche im Überblick.
Abb. 6.14. Verfahren und Anwendungen des Bohrens und Abtragens mit dem Laserstrahl
6.5 Fügen
299
6.5 Fügen Fügen ist nach DIN 8580 das Verbinden von geometrisch bestimmten Körpern miteinander oder mit formlosem Stoff. 6.5.1 Schweißen Beim Schweißen werden die Werkstoffe durch Wärmeeinwirkung verbunden (Abb. 6.15).
Abb. 6.15. Übersicht über die Schweißverfahren
Wärmeleitungs-Schweißen und Tief-Schweißen Beim Wärmeleitungs-Schweißen erhitzt der Laserstrahl den Werkstoff so weit über die Schmelztemperatur, dass noch kein merklicher Dampfdruck entsteht. Die Wärmeleitung des Werkstücks bestimmt das Schmelzbad und die Tiefe der Schweißnaht. Im Vergleich zu anderen Schweißverfahren kann weniger und gezielter Energie in das Werkstück eingebracht werden. Dementsprechend geringer ist der Verzug des Bauteils, und der Wirkungsgrad des Prozesses ist höher. Im Laser-Tief-Schweißen wird das Werkstück auf eine Temperatur aufgeheizt, die so weit über der Verdampfungstemperatur liegt, dass ein Dampfdruck entsteht. Beim Verdampfen des Werkstoffes entsteht ein Dampfkanal bzw. eine Dampfkapillare (keyhole: Schlüsselloch). Dadurch können hohe Schachtverhältnisse (Verhältnis von Nahttiefe zu Nahbreite) von etwa 10:1 erzielt werden. Das Material wird an der Vorderfont des Dampfkanals vollständig aufgeschmolzen, umströmt diesen und erstarrt hinter der Dampfkapillare zur Schweißnaht. Abbildung 6.16 zeigt den Unterschied zwischen beiden Verfahren.
300
6 Produktionstechnik
Abb. 6.16. Unterschied zwischen dem Wärmeleitungs-Schweißen (linkes Bild) und dem Tief-Schweißen (rechtes Bild); 1: Werkstoff, 2: Laserstrahl, 3: Feste Schmelze, 4: Schmelzzone (flüssig), 5: Dampfkanal (keyhole), 6: abströmender Metalldampf, 7: Schweißrichtung (Werkfoto: TRUMPF)
Mit diesen Schweißverfahren können Bleche, Profile, Rohre und beliebig dreidimensionale Werkstücke verzugsfrei, verschleißfrei, schnell, flexibel und mit tiefen Nähten verschweißt werden. Zum Einsatz kommen sowohl CO2-, Nd:YAG-, als auch Diodenlaser. Die Einsatzgebiete sind äußerst vielfältig und reichen von der Automobil- und Flugzeugindustrie bis hin zum Schiffs- und Behälterbau oder Mikrotechnik. Abbildung 6.17 zeigt ein Beispiel.
Abb. 6.17. Verschweißte Achsen eines Automobils (Werkfoto: TRUMPF)
6.5 Fügen
301
Laser-Hybrid-Schweißen Beim Laser-Hybrid-Schweißen wird das Verfahren des Laser-Schweißens mit einem anderen Schweißverfahren kombiniert. Wie Abb. 6.15 zeigt, kann das zweite Verfahren ein Metall-Schutzgasverfahren (MSG), ein Verfahren, das Wolfram-Inertgas verwendet (WIG), oder ein anderer Laser sein. Beim Hybrid-Schweißen erzeugen beide Schweißquellen eine gemeinsame Schmelze. Ziel ist es, durch die Vorteile der unterschiedlichen Schweißverfahren die Schweißprozesse technologisch und wirtschaftlich zu optimieren. Abbildung 6.18 zeigt den Aufbau einer Hybrid-Schweißdüse.
Abb. 6.18. Hybrid-Schweißdüse (links: schematischer Aufbau; rechts: realer Schweißkopf; Werkfoto: Fraunhofer Institut für Lasertechnik, ILT, Aachen)
Kunststoff-Schweißen Das Laserstrahlschweißen von Thermoplasten und thermoplastischen Elastomeren beruht unabhängig von der Fügepartneranordnung auf der örtlich und zeitlich definierten Absorption elektromagnetischer Strahlung im Fügebereich, deren Umwandlung in Wärme und damit einer Temperaturerhöhung im Wechselwirkungsbereich über der Plastifizierungs- und unterhalb der Zersetzungstemperatur der Fügepartner. Die verfahrenstechnischen Besonderheiten sind:
x berührungslose Bearbeitung mit abnutzungsfreiem Werkzeug, x örtlich (100 µm) und zeitlich (ms) definierter Energieeintrag und damit – kleine Wärmeeinflusszone (WEZ), – geringe bis keine thermische oder mechanische Belastung,
302
x x x x x
6 Produktionstechnik
– wulst-, abrieb-, erschütterungsfreies Fügen ohne induzierte Schwingungen, – geometrie- und abmessungserhaltendes Fügen, geringer Verzug, keine Erzeugung von Partikeln vor, während oder nach dem Fügeprozess, keine Arbeitsplatzbelastung durch Schall, Dampf und Geruch, keine zusätzlichen Fügematerialien oder -strukturen notwendig, Erzeugung versteckter Schweißnähte ohne Oberflächenmodifikation, Erzeugung räumlich dreidimensionaler Nahtgeometrien (je nach Verfahren), toleranter gegenüber Unterschieden der Fügepartner hinsichtlich Schmelztemperatur, Viskosität und Steifigkeit als konventionelle Verfahren. Die verschiedenen Bestrahlungs-Verfahren zeigt Abb. 6.19.
Abb. 6.19. Bestrahlungsverfahren beim Kunststoff-Laserschweißen (Werkfoto: Huf; Russek, U.A. 2003)
Das Konturschweißen basiert auf dem Laserdurchstrahlprinzip. Ein punktförmiger Laser bewegt sich entlang eines beliebig programmierbaren Weges. Die bestrahlten Stellen werden verschweißt. Dieses Verfahren ist hoch flexibel, erlaubt ein beliebiges Design der Schweißnaht und ermöglicht eine wirtschaftliche Serienfertigung.
6.5 Fügen
303
Das Maskenschweißen basiert ebenfalls auf dem Laserdurchstrahlprinzip. Der Laser bewegt sich über eine strukturierte Maske. Dort, wo das Laserlicht durch die Maske tritt, werden die Bauteile verschweißt. Abgedeckte Stellen werden nicht bestrahlt und deshalb auch nicht verschweißt. Mit diesem Verfahren werden feine Strukturen im Bereich von 100 Pm verschweißt. Die Masken können sehr schnell ausgetauscht werden. Dies garantiert eine hohe Flexibilität. Beim Simultanschweißen wird die Geometrie der Schweißnaht mit oder ohne Maske auf einmal ausgeleuchtet. Wird ein Laserstrahl durch schnelle Ablenkspiegel innerhalb eines begrenzten Feldes bewegt, dann nennt man dies Quasisimultanschweißen. In der Praxis werden am häufigsten das Kontur- und das Quasisimultanschweißen eingesetzt. Zum Einsatz kommen folgende Laser:
x x x x
Hochleistungs-Diodenlaser (Wellenlänge: 808 nm, 940 nm und 980 nm). Nd:YAG-Laser (Wellenlänge: 1,064 Pm). Ho: YAG-Laser (Wellenlänge: 2 Pm). CO2-Laser (Wellenlänge: 10,6 Pm).
Die erzielbare Schweißnahtfestigkeit dichter, porenfreier und optisch hochwertiger Nähte liegt bei optimierten Werkstoffpaarungen im Bereich der Grundmaterialfestigkeit. Dabei sind kleine und große sowie weiche und flexible Fügeteile schweißbar. Konventionelle Schweißverfahren wie das Ultraschall- und Heizelementschweißen stoßen beispielsweise bei Schweißungen an Kleinstteilen sowie an Produkten mit integrierten elektronischen Bauteilen an Grenzen. Der zeitlich und räumlich lokalisierte Energieeintrag ist eingeschränkt. Thermische oder mechanische Belastungen führen zur Beschädigung der Produktfunktion. Das Werkzeug Laserstrahlung bietet prozess- und verfahrenstechnische Vorteile gegenüber den konventionellen Verfahren. Es sind zwei Fügepartneranordnungen zu unterscheiden: der Stumpfstoss und der Überlappstoss. Bei der Stumpfstossverbindung erfolgt eine Plastifizierung über die gesamte zu schweißende Materialdicke. Demzufolge ist die Fügefläche homogen sowohl in der Länge als auch in der Tiefe zu erwärmen und zu plastifizieren. Dies setzt voraus, dass die Absorption im zu plastifizierenden Bereich gleichmäßig stattfindet. Diese Fügepartneranordnung wird eher selten eingesetzt. Die industriell fast ausschließlich eingesetzte Fügepartneranordnung ist das Überlapp- oder Laserdurchstrahlschweißen. Beide Fügepartner weisen unterschiedliche optische Eigenschaften für die verwendete Laserstrahlung auf. Die zu fügenden Kunststoffteile liegen übereinander. Die Laserstrahlung wird durch den für die Laserwellenlänge transparenten Fügepartner hindurch auf den absorbierenden Fügepartner fokussiert, wodurch dieser oberflächlich plastifiziert wird. Bei thermischem Kontakt zwischen den Fügepartnern wird auch der transparente Fügepartner
304
6 Produktionstechnik
plastifiziert, so dass es zu einer stoffschlüssigen Verbindung kommen kann. Die unterschiedlichen optischen Eigenschaften sind durch verschiedene Füllstoffe bzw. -konzentrationen einstellbar. Abbildung 6.20 zeigt Sensoren für eine Nockenwelle, die im Quasisimultan-Kunststoff-Schweißverfahren hergestellt wurden.
Abb. 6.20. Nockenwellensensor, hergestellt im Quasisimultan-Kunststoff-SchweißVerfahren (Werkfoto: Leister, mit freundlicher Genehmigung von Delphi Automotive, Luxemburg)
6.5.2 Löten Löten ist ein thermisches Verfahren zum stoffschlüssigen Fügen und Beschichten von Werkstoffen. Durch Schmelzen eines Lotes (Schmelzlöten) oder durch Diffusion an den Grenzflächen (Diffusionslöten) entsteht eine flüssige Phase, welche in den Lötspalt fließt, der die beiden Werkstoffe verbindet. Bei diesem Verfahren ist ein definierter Temperatur-ZeitVerlauf einzuhalten, durch den folgende Prozesse ablaufen:
x x x x x
Aktivierung der Oberfläche. Schmelzen des Lotes. Benetzen der zu lötenden Teile durch das Lot. Fließen des Lotes in den Lötspalt. Ausfüllen des Lötspaltes durch das Lot.
Beim Laser-Löten richtet der Laser einer Hochleistungs-Laserdiode den Strahl direkt zur gewünschten Kontaktstelle. Das Lot absorbiert hauptsächlich die Laserenergie. Dadurch ist ein schnelles Verlöten der Teile möglich. Es sind sehr kurze Aufheiz- und Abkühlzeiten möglich und die Prozessparameter (z.B. Laserleistung, Geometrie des Lasers, Temperatur-ZeitVerlauf) sind frei programmierbar sowie präzise einstell- und steuerbar. Dadurch ergeben sich folgende Vorteile:
6.6 Beschichten
305
x x x x x x
Berührungslose, lokal begrenzte Energieeinspeisung. Keine thermische Schädigung wärmesensibler Bereiche. Kein Werkzeugverschleiß. Geringe Wartung. Geringe Wärmebelastung der Teile. Genau steuerbarer Prozess (Prozess-Sicherheit und gleich bleibende Qualität). x Flexible, hochgenaue Fertigung mit geringen Taktzeiten. Das Laser-Löten gestattet sowohl das Löten der Innenwände von Bohrlöchern, (z.B. zum Vergolden der Bohrlöcher von Leiterplatten) mit der through-hole-technology (THT), als auch das Löten von Bauelementen auf eine Oberfläche (z.B. das Aufbringen von Widerständen auf eine Leiterplatte) mit der surface-mounted-technology (SMT). Als Lotmittel können Lötdraht und Lötpaste verwendet werden. Die verschiedenen Löt-Verfahren sind ähnlich wie beim KunststoffSchweißen. Beim Simultanlöten werden mehrere Kontaktstellen gleichzeitig bestrahlt und gelötet. Dadurch können in sehr kurzen Prozesszeiten einzelne Bauteile oder ganze Anschlussreihen gelötet werden. Das Maskenlöten ist dann vorteilhaft, wenn sehr empfindliche oder die Laserstrahlung stark absorbierende Werkstoffe gelötet werden müssen. Der Laserstrahl trifft nur an den Stellen der Maskenöffnungen auf den Werkstoff und verlötet dort. Die von der Maske abgedeckten Stellen werden nicht bestrahlt; das Substrat wird nicht wärmebelastet. Beim Punktlöten bewegt sich ein punktförmiger Laserstrahl an jede beliebig programmierbare Stelle. Die Parameter des Laserstrahls können individuell programmiert werden. Wegen des kontaktlosen Energieeintrages und der hohen Flexibilität werden mit diesem Verfahren insbesondere Sonderanwendungen wirtschaftlich fertigbar. Solche Anwendungen sind insbesondere mehrdimensionale Anordnungen, enge Packungen sowie wärmeempfindliche Bauteile.
6.6 Beschichten Beschichten ist nach DIN 8580 das Aufbringen von fest haftenden Schichten aus formlosem Stoff auf die Oberfläche von Werkstücken. Direct Metal Deposition (DMD) Bereits in Abschn. 6.2.1 wurde das Laserformen beschrieben, mit dem beliebige Geometrien schichtförmig aufgebaut werden. Das DMDVerfahren weist folgende Unterschiede zum Laserformen auf: Es können
306
6 Produktionstechnik
verschiedene Materialien auf andersartige Grundmaterialien gemischt und aufgetragen werden. Das Verfahren hat folgende Vorteile:
x Gleichmäßige Verteilung der Beschichtung. x Minimale Gefügebeeinflussung des Grundmaterials wegen geringen Energieeintrags. x Hochpräzises, automatisches Auftragen mit Schichtdicken von 0,1 mm bis mehreren cm. x Reparatur von polierten Oberflächen und Schichthärten von bis zu 63 HRC. Die beschichteten Oberflächen werden meist mit Zerspanen und Schleifen fertig bearbeitet. Der Prozess ist in Abb. 6.21 dargestellt.
Abb. 6.21. DMD-Prozess (Werkfoto: TRUMPF)
Das DMD-Verfahren wird vor allem bei folgenden Anwendungen eingesetzt:
x Reparatur und Änderung bestehender Bauteile (Abb. 6.22). x Gezielte Verbesserung von physikalischen Eigenschaften (z.B. Hartbeschichtung von Werkzeugen mit hohem Verschleiß; Abb. 6.23).
6.7 Stoffeigenschaften ändern
307
Abb. 6.22. Reparatur eines Bauteils (Werkfoto: TRUMPF)
Abb. 6.23. Halbwarmumformwerkzeug (Werkfoto: TRUMPF)
6.7 Stoffeigenschaften ändern Durch Umlagern, Aussondern oder Einbringung von Stoffteilchen können Stoffeigenschaften verändert werden. 6.7.1 Härten Das Laserstrahl-Härten gehört zum Verfahren des Umwandlungshärtens an den Randschichten (Umwandlung von Stahl und Gusseisen in Austenit oder Martensit an der Oberfläche). Im Vergleich zu den alternativen Ver-
308
6 Produktionstechnik
fahren des Flammhärtens oder Induktionshärtens besitzt das LaserstrahlHärten folgende Vorteile:
x Kurzzeit-Härteverfahren (Härtezeit von wenigen Zehntelsekunden bis zu einigen Sekunden). x Geringer Verzug der bearbeiteten Bauteile. x Härten von kleinen Teilen möglich. x Unterschiedliche Härtung an den Oberflächen; Erzeugung von Härtemustern. x Keine Kühlmittel erforderlich. x Einfache Integration in bestehende Fertigungsabläufe und on-line Prozesskontrolle. Der Nachteil besteht in den relativ hohen Investitionskosten für die Anlagen. Abbildung 6.24 zeigt einen laserstrahlgehärteten Gelenkring.
Abb. 6.24. Laserstrahlgehärtetes Spannelement (Werkfoto: Fraunhofer IPT, Heidi Peters)
6.7.2 Umschmelzen Der Laserstrahl schmelzt die Randschicht eines Werkstoffes kurzzeitig auf. Bei der anschließenden Erstarrung kann sich die Zusammensetzung des Werkstoffes ändern. Das Umschmelzen dient dazu, verbesserte Oberflächeneigenschaften zu erreichen, im Wesentlichen erhöhte Korrosions- und Verschleißbeständigkeit. Um die Korrosionsbeständigkeit zu erhöhen, wird das Gefüge durch Umschmelzen mit dem Laserstrahl homogenisiert, oder es werden korrosionshemmende Teilchen in die Schmelze eingebracht. Vor allem für Gusswerkstoffe aus Eisen, Aluminium, Magnesium und Kupfer wird das Verfahren eingesetzt. Der große Vorteil des LaserstrahlUmschmelzens liegt in der Schnelligkeit des Verfahrens im Vergleich zum Umschmelzen mit Plasma, Lichtbogen oder der Flamme. Gleich schnell ist lediglich das Elektronenstrahl-Umschmelzverfahren, das jedoch im Vakuum erfolgen muss. Dies bedingt einen wesentlich höheren apparativen Aufwand.
6.8 Markieren und Beschriften
309
6.7.3 Polieren Der Werkstoff wird zunächst umgeschmelzt. Da die Schmelze beim Erstarren versucht, die Oberflächenenergie zu minimieren, wird diese Oberfläche sehr glatt. Zusätzlich kann durch gezieltes Abdampfen von Mikrorauheiten durch eine gepulste Laserstrahlung die Oberfläche weiter geglättet werden. Hauptsächlich werden Werkzeugstähle, Edelstähle, Titan und die Legierungen Co-Cr sowie Cu-Al mit diesem Verfahren poliert. Es ergeben sich typische Rauheiten von 0,15 Pm bis 0,25 Pm. Besonders eignet sich dieses Verfahren auch für poröse Werkstoffe, die eine glatte, defektfreie Oberfläche erhalten. Anwendungsfelder liegen im Werkzeug- und Formenbau sowie in der Medizintechnik (Rauheiten von < 0,1 Pm sind für den Werkstoff TiAl6V4 erzielbar).
6.8 Markieren und Beschriften Mit Lasern können die unterschiedlichsten Werkstoffe markiert bzw. beschriftet werden. Eingesetzt werden entweder CO2-Laser oder Nd:YAGLaser. Das Laserbeschriften bietet folgende Vorteile:
x Verschleißfreies, berührungsloses Verfahren. x Keine Verbrauchsmaterialien wie Tinten oder Lösungsmittel. x Feine, abrieb- und wischfeste, chemikalien- und lichtbeständige sowie fälschungssichere Kennzeichnungen. x Hohe Qualität der Kennzeichnungen. x Einfache Integration in bestehende Fertigungsabläufe. Mit einem zweidimensionalen DataMatrix-Code kann die Informationsdichte pro Fläche im Vergleich zum Barcode beträchtlich erhöht werden. Dies ist besonders für Leiterplatten und SMD-Platinen wichtig, weil dort der Platz für die Beschriftung immer geringer wird. In der Industrie hat sich der Code EC200 etabliert. Bei der Beschriftung der Leiterplatten werden folgende zwei verschiedene Verfahren eingesetzt: 1. Ein CO2-Laser mit einer Wellenlänge von 10,6 Pm bewirkt einen Farbumschlag des Lötstopplackes von grün nach weiß, ohne die Lackschicht zu beschädigen. 2. Ein Nd:YAG-Laser trägt die Schicht des Lötstopplackes bis zur Kupferbahn ab. Für das Laserbeschriften in anderen Anwendungsfällen werden folgende zwei Verfahren eingesetzt:
310
6 Produktionstechnik
x Laser-Maskenbeschriften. Die Maske enthält die gesamte Beschriftungsinformation, die mit einem einzigen Laserimpuls aufgebracht wird. x Laser-Strahlablenkungsbeschriften. Der Laserstrahl wird wie die Spitze eines Schreibstiftes so über das Produkt bewegt, dass die gewünschte Information eingeschrieben wird. Die Beschriftungsgeschwindigkeiten liegen bei 20 m/s oder 1.250 Zeichen/s. Beim Laserbeschriften kommen folgende drei Verfahren zum Einsatz: 1. Abtragen Der Laser heizt das Material auf, welches dann schlagartig verdampft. Dadurch wird das Material dort entfernt, wo der der Laserstrahl auftrifft. Mit einem feinen Fokus und einer schnellen Ablenkung des Laserstrahles erfolgt eine schnelle und präzise Beschriftung. Bei Mehrschichtfolien aus Kunststoff können dünne Deckschichten mit dem Laserstrahl abgetragen werden. Damit werden die Schalter- und Tastenkennzeichnungen der Tag- und Nachterkennung realisiert (z.B. Schalter im Armaturenbrett eines PKW). 2. Gravieren Beim Gravieren erfolgt das Abtragen in der Tiefe (üblicherweise bis zu 50 Pm). Im Unterschied zum mechanischen Gravieren ist die Lasergravur wesentlich feiner. 3. Farbumschlag und Ausbleichen Der Laserstrahl zerstört gezielt Farbstoffe, die im Werkstoff (meist Kunststoff) eingelagert sind. Der Werkstoff verfärbt sich dann an diesen Stellen. Zum unbehandelten Material entsteht ein Kontrast, der eine gut lesbare Kennzeichnung hervorruft. Dieses Verfahren zur Laserbeschriftung schont die Oberfläche des Werkstoffes, die in der Regel nicht beschädigt wird. Abbildung 6.25 zeigt elektronische Bauteile, die mit Laser beschriftet wurden.
Abb. 6.25. Beschriften von Kondensatoren mit Kunststoffgehäuse (Geschwindigkeit: 30 Teile/s oder 108.000 Teile/Stunde; Werkfoto: ALLTEC)
6.9 Strukturieren und Mikrobearbeiten
311
6.9 Strukturieren und Mikrobearbeiten In der Verbindungs-, Trenn- und Aufbautechnik ist der Trend zur Miniaturisierung weiter zu beobachten. Zum Einsatz kommen gepulste ExcimerLaser, die im UV-Bereich arbeiten und Wellenlängen von 193 nm bis 351 nm besitzen. Die Pulsdauer beträgt wenige ns, die Pulsenergie liegt im Joule-Bereich mit Leistungen von einigen zehn Watt. Die sehr kurzen Wellenlängen haben für den industriellen Einsatz folgende zwei Vorteile:
x Hohe Auflösung verbunden mit kleinen Strukturen. 2 x Durch die geringen Energiedichte von wenigen J/cm wird der Werkstoff beim Abtragen von Oberflächenmaterial nur gering aufgeheizt (kalte Ablation). Das Abtragen kommt nicht durch Schmelzen oder Verdampfen von Material zustande. Es werden vielmehr Molekülverbindungen und Gitterstrukturen aufgebrochen. Abbildung 6.26 zeigt einen Excimer-Laser für industrielle Anwendungen. Der Excimer-Laser wird auch in der Medizin in der refraktiven Chirurgie (z.B. Ablation der Hornhaut, um die Sehschärfe zu korrigieren) oder zur Glaukom-Behandlung (z.B. winzige Bohrungen in der Augenvorderkammer) eingesetzt.
Abb. 6.26. Excimer-Laser für die Mikromaterialbearbeitung (248 nm und 250 mJ; Werkfoto: TuiLaser AG)
Abbildung 6.27 zeigt eine Übersicht über die Anwendungen, Abb. 6.28 die Beschichtung eines Stents. In Abb. 6.29 ist ein KapillarelektrophoreseChip zu sehen.
312
6 Produktionstechnik
Abb. 6.27. Übersicht über die Anwendungen in der Mikromaterialbearbeitung
Abb. 6.28. Mikrostrukturierung von Rundgeometrien: Mit Gold beschichtete Stents aus Polyimid (Wellenlänge: 248 nm; Werkfoto: Bartels Mikrotechnik GmbH)
Abb. 6.29. Kapillarelektrophorese-Chip mit einer Pt-Elektrode zur elektrochemischen Detektion (Wellenlänge: 248 nm; Werkfoto: Bartels Mikrotechnik GmbH)
6.10 Produktentwicklung mit Laser
313
6.10 Produktentwicklung mit Laser Lasermaschinen mit ihren optischen Verfahren haben Einzug in die Fertigung gehalten und ermöglichen in fast allen Fertigungsverfahren große Fortschritte. Die flexible Verkettung dieser Maschinen und damit die Möglichkeit, wirtschaftlich und flexibel auch in kleinen Stückzahlen zu produzieren, sind neben den technologischen Fertigungsmöglichkeiten wichtige Gründe für den erfolgreichen Einsatz dieser Maschinen. Die gesamte Prozesskette in der Produktion wird überdies durch optische Überwachungsund Registriersysteme sicherer und ermöglicht eine hohe, gleich bleibende Qualität, auch und vor allem bei der Produktion von Mikroteilen. Rapid Prototyping Mit Rapid Prototyping wird die Entwicklungszeit von der Idee bis zur Marktreife eines Produktes wesentlich verkürzt. Damit wird es möglich, Innovationen schneller, kostengünstiger und kundengerechter (schnelle Reaktion auf Marktbedürfnisse) auf den Markt zu bringen. Zunehmend wichtiger wird die Möglichkeit, Varianten und komplexe Geometrien schnell zu realisieren oder schnell und kostengünstig Änderungen vornehmen zu können. Abbildung 6.30 zeigt in einem Schema, wie aus den Konstruktionsdaten des CAD sehr schnell Prototypen gebaut werden können.
Abb. 6.30. Schema der Prozesskette von den CAD-Daten bis zum Prototyp für das Laser-Sintern (Werkfoto: EOS GmbH)
Wie in Abb. 6.30 zu sehen ist, werden die CAD-Daten zunächst in eine Software eingespielt (in diesem Fall EOSPACE). Diese veranlasst, dass die Bauteile so positioniert werden, dass der Bauraum optimal ausgenutzt und die erforderliche Bauhöhe minimiert wird. Daran schließt sich der Produktionsprozess an, der IPCM genannt wird (IPCM: Integriertes Pro-
314
6 Produktionstechnik
zess-Chain-Management). Dazu gehört im Falle des Lasersinterns (Abschn. 6.2.1) oder des Laserformens (Abschn. 6.6) die automatische Werkstoffzufuhr mit der Misch- und Dosierstation, die Pulveraufbereitung, die Entpackstation und das Fertigen des Prototypen. Maschinen zur Vorbereitung der Entsorgung können angeschlossen werden. Für das Rapid Prototyping gibt es unterschiedliche Verfahren, die in Tabelle 6.4 aufgeführt und beschrieben sind. Tabelle 6.4. Verfahren für das Rapid Prototyping Verfahren Beschreibung SLA Stereolithography Apparatus. Es befindet sich über einer Plattform ein flüssiges Polymer. Die CAD-Daten werden durch einen XY-Laser-Scanner auf die Oberfläche projeziert. Der Laserstrahl härtet das Polymer aus. Das Objekt wird auf der Plattform nach unten verschoben und das Verfahren beginnt neu. So wird ein Körper Schicht um Schicht aufgebaut. SLS Selektives Lasersintern (Abschn. 6.2.1). Der Laser sintert ein Metallpulver an der Oberfläche. Durch Absenken des Körpers und Wiederholung des Prozesses wird ein Körper Schicht um Schicht aufgebaut. DMD Direct Metal Deposition (Abschn. 6.6). Der Laser kann bestehende Werkstoffe (z.B. Stahl oder Aluminium) mit anderen Materialien (oder gleichen) beschichten. FDM Fused Deposition Modeling. Thermoplastische Kunststoffe werden temperaturabhängig auf vorhandene Kunststoffscheiben extrudiert. Auf einer Spule ist Material aufgewickelt. Dieses wird geschmolzen und mit einem XY-Plotter auf die zuvor erzeugte Schicht gebracht. SGC Solid Ground Curing. Wie in einem Fotokopierer wird durch einen elektrostatischen Prozess eine Maske aufgebaut. Durch diese Maske tritt UV-Licht, welches den Kunststoff aushärtet. Der Prozess wird wiederholt, um weitere Schichten aufzubauen. Das Verfahren ist ein Stereolithografie-Verfahren, bei dem durch eine Maske belichtet wird.
Anwendungsbeispiel Prototypen im Maschinenbau, in der Elektrotechnik, als Design-Studien und als Kopie von Kunstwerken in der Archäologie.
Funktionsfertige und sofort einsetzbare Teile. Speziell im Werkzeug- und Formenbau. Reparatur von Werkzeugen. Oberflächenbehandeln (Härten, Korrosionsschutz). Funktionelle, geometrische und technische Prototypen aus Kunststoff.
Bau von DesignModellen. FeingussModelle für das WachsausschmelzVerfahren.
6.10 Produktentwicklung mit Laser LOM
IT
3DP
DSPC
Laminated Object Manufacturing. Man startet mit einer dünnen Kunststoff-Folie. Der Laser schneidet entsprechende Konturen aus. Anschließend wird wieder eine dünne Folie aufgebracht. Gleichzeitig können bis zu vier Folienschichten bearbeitet werden. Inkjet Technology. Wie bei einem Tintenstrahldrucker werden kleine Tröpfchen aus flüssigem Kunststoff ausgesprüht. Im nächsten Sprühgang werden weitere flüssige Kunststoffteilchen aufgebracht. Three Dimensional Printing. Es werden Körner eines Pulvers mit einem flüssigen Binder verklebt. Der flüssige Binder wird entsprechend der CAD-Daten mit einer InkJet-Düse aufgebracht. Dadurch werden Schichtelemente hergestellt, aber auch die aktuelle Schicht mit der darunter liegenden verbunden. Mit diesem Verfahren können verschiedene Materialien auf vorhandene Werkstoffe aufgebracht werden. Der Laserstrahl weicht das Material auf und eine Druckwalze prägt entsprechende Geometrien ein. Direct Shell Production Casting. Auf ein Metallpulver wird ein flüssiger Binder aufgedruckt. Dieser wird dann erhitzt.
315
Geometrie- und Funktionsprototypen. Bau von Kunststoffteilen mit dicken Wänden. Design-Studien für große Modelle.
Verlorene Formen und Kerne für das Feingiessen.
Erzeugen von formstabilen und temperaturbeständigen Kernen für das Gießen von Metallen.
Rapid Production Neben der schnellen und wirtschaftlichen Erstellung von Einzelteilen mit den Verfahren des Rapid Prototyping ist es wichtig, den gesamten Fertigungsprozess mit seinen mechanischen, elektrischen, elektronischen, informatischen und optischen Komponenten zu integrieren und flexibel und wirtschaftlich zu gestalten. Dazu gibt es spezielle AuftragsplanungsSysteme, die unter besonderer Berücksichtigung von Laseranwendungen alle Parameter einer Fertigung berücksichtigt. Auch die erforderlichen oder die gewünschten Informationen können erzeugt werden (z.B. Vorwärtsund Rückwärtsterminierung, Belegungsdiagramme nach Gantt, Simulation alternativer Maschinenbelegungen, kurze Durchlaufzeiten, Produktmengen- und Terminüberwachungen).
316
6 Produktionstechnik
6.11 Literatur Dausinger F (2001) Laserverfahren für Tieflochbohrungen im Mikrometerbereich. Wt Werstatttechnik 91: 20 Hecht J (1992) Helium Neon Lasers, Carbon Dioxide Lasers, Neodym Lasers, Diode-Lasers. Laser Focus World. 28: 77 – 143 Poprawe R (2005) Lasertechnik für die Fertigung. Springer, Berlin, Heidelberg Regenfuß P, Ebert R, Klötzer S, Hartwig L, Exner H, Petsch T (2004) Mikrobauteile durch Lasersintern im Vakuum. Forschungsbericht Forschungszentrum Karlsruhe Russek U.-A (2005) Prozesstechnische Aspekte beim Laserdurchstrahlschweißen von Thermoplasten. Dissertation Fakultät für Maschinenwesen RWTH Aachen Russek U.-A, Palmen A, Staub H, Wenzlau C, Otto G, Poggel M, Koeppe A (2003) Laser Beam Welding of Thermoplastics, Photonics West, Conference San Jose, USA Schillinger H, Wallenta P (2004) Kompakte Excimerlaser in der Industrie. Physik Journal Nr. 10: 80 Vollertsen F, Holzer S (1994) Laserstrahlumformen. VDI-Z 136: 35 www.3dsystems.com www.bartels-mikrotechnik.de www.eos-gmbh.de www.dilas.de www.huf-tools.de www.ilt.fraunhofer.de www.ipt.fraunhofer.de www.leister-technologies.de www.lzh.de www.trumpf.com www.tuilaser.com
7 Beleuchtungstechnik
7.1 Einleitung Ziel der Beleuchtungstechnik ist es, das Licht einer Lichtquelle so umzulenken, dass es für einen menschlichen Betrachter oder für eine technische Anwendung den größten Nutzen bringt. Dieses Lichtlenken geschieht durch den Einsatz von reflektierenden oder transmittierenden Materialien, deren Oberflächen so gestaltet sind, dass auftreffendes Licht durch Reflexion, Brechung und zum Teil auch Beugung in der Strahlrichtung geändert wird. Solche Materialien werden auch als passive optische Komponenten bezeichnet. Die Kombination aus Lichtquelle und passiven optischen Komponenten nennt man optisches System. Die Lichtfarbe spielt für beleuchtungstechnische Anwendungen eine wichtige Rolle. Die Lichtfarbe wird durch die Zusammensetzung der einzelnen Wellenlängenbereichen erzeugt. Licht im Allgemeinen sind elektromagnetische Wellen aus dem Wellenlängenbereich von 380 nm bis 780 nm. Dieser Wellenlängenbereich umfasst den für das menschliche Auge sichtbaren Bereich, wobei die kurzwelligen Bereiche als violett und die langwelligen Bereiche als rot empfunden werden. Neben den oben beschriebenen geometrischen Effekten, die passiv optische Komponenten auf die Lichtstrahlung haben, gibt es zudem spektrale Effekte wie spektrale Absorption oder Dispersion, welche die Lichtausbreitung beeinflussen. Für bestimmte Anwendungen der Beleuchtungstechnik wird eine definierte spektrale Zusammensetzung des Lichtes gefordert. Ein Beispiel hierzu sind die Farben rot, gelb und grün der Verkehrsampel. Optische Systeme der Beleuchtungstechnik lassen sich in drei Hauptgruppen einteilen. Diese drei Hauptgruppen sowie ein Teil der dazu gehörigen Anwendungen sind in Tabelle 7.1 dargestellt.
318
7 Beleuchtungstechnik Tabelle 7.1. Beispiele optischer Systeme der Beleuchtungstechnik
Beleuchtung Raumleuchten Arbeitsplatzleuchten Kraftfahrzeug Fernlicht Abblendlicht Nebelscheinw. Leseleuchten Straßenverkehrsleuchten Architekturleuchten
Signalisation Ampeln Schienenverkehr-Signalgeber Kraftfahrzeug Fahrtrichtungsanzeiger Schlussleuchte Bremsleuchte Nebelschlussleuchte Positionslichter für Flugzeuge und Schiffe Positionslichter für Gebäude und Hindernisse
Informationsträger Displays Bedienelemente Statusanzeigen
Tacho
Medizinleuchten Endoskopiebeleuchtung
7.2 Lichttechnische Größen Die für die Beleuchtungstechnik wichtigsten lichttechnischen Größen werden hier kurz erläutert. Die formelmäßigen Definitionen sind in Abschn. 1.3.2 zusammengestellt. Lichtstrom ) Mit dem Lichtstrom bzw. der Lichtleistung wird die Menge des Lichtes bezeichnet, die von einer Lichtquelle ausgesandt wird oder in einen Zielbereich auftrifft. Das von einer Lichtquelle ausgesendete Licht steht zur Verfügung, um es durch die passiven optischen Komponenten zu lenken. Der Lichtstrom wird in Lumen gemessen: [)] = 1 lm. Beleuchtungsstärke E Die Beleuchtungsstärke beschreibt den Lichtstrom, der auf eine bestimmte Fläche auftrifft. Sollen Objekte ausgeleuchtet werden, ist das Maß der Beleuchtungsstärke das entscheidende Kriterium. Zum Beispiel muss ein Autoscheinwerfer auf der Fahrbahn vor dem Fahrzeug eine genügend hohe Beleuchtungsstärke erzeugen, damit der Fahrer den Straßenverlauf sowie Objekte auf der Strasse gut erkennen kann (Tabelle 7.1, 1. Spalte). Der erste Teil der Anwendungsbeispiele befasst sich mit Systemen für die Beleuchtung, für welche die Beleuchtungsstärkeverteilung das Hauptkriterium darstellt (Abschn. 7.3). Die Beleuchtungsstärke wird in Lux gemessen: 2 [E] = 1 lx = 1 lm/m .
7.2 Lichttechnische Größen
319
Lichtstärke I Die Lichtstärke beschreibt den Lichtstrom, der in einen bestimmten Raumwinkel abgestrahlt wird. Die Lichtstärke bestimmt die winkelabhängige Lichtabstrahlung optischer Systeme, ihre Maßeinheit ist die Candela: [I] = 1 cd = 1 lm/sr. Das Lichtstärke-Kriterium wird beispielsweise für optische Signaleinrichtungen verwendet, welche von einem Betrachter aus größeren Abständen, dem sogenannten Fernfeld, betrachtet werden. Beispiele hierfür sind Straßenverkehrssignalgeber (Ampel) oder Kfz-Fahrtrichtungsanzeiger (Blinker). Diese Signalgeber müssen aus den unterschiedlichen Betrachtungsrichtungen gut zu erkennen sein. Dies bedeutet, dass sie einen genügend hohen Lichtstrom in die Richtung des Betrachters abstrahlen müssen. Im zweiten Teil der Anwendungsbeispiele werden Systeme zur Signalisation dargestellt, für welche das Hauptkriterium die Lichtstärke ist (Tabelle 7.1, 2. Spalte; Abschn. 7.4). Leuchtdichte L Die Leuchtdichte beschreibt den Lichtstrom, der von einer Fläche in einen Raumwinkel abgestrahlt wird. Sie ist die Größe, die von einem menschlichen Betrachter erfasst wird. Beim Blick auf einen Bildschirm ist die Leuchtdichteverteilung auf dem Bildschirm dafür verantwortlich, dass der Betrachter die Symbole und Schriften erkennen kann. Dabei ist es möglich, dass die Leuchtdichte durch ein Selbstleuchten verursacht wird (Bildschirm) oder durch ein Anleuchten eines Objektes, welches durch Reflexion die Lichtstrahlung in das Auge des Betrachters umlenkt (z.B. Fahrbahnaus2 leuchtung). Die Maßeinheit der Leuchtdichte ist [L] = 1 cd/m . Beim Lesen dieses Buches spielen zwei der oben beschriebenen Effekte eine Rolle: 1. Eine genügend hohe Beleuchtungsstärke sorgt für die gute Ausleuchtung der Buchseiten, so dass das reflektierte Licht genügend stark ist, damit der Betrachter etwas erkennen kann. 2. Aufgrund der unterschiedlichen Reflexionseigenschaften der weißen Seiten des Buches sowie der schwarzen Schrift, ergibt sich ein Kontrast in der Leuchtdichteverteilung, wodurch diese Zeichen lesbar sind. Wird in diesem Kapitel von Leuchtdichte gesprochen, bezieht sich diese im Wesentlichen auf Leuchtdichten, die durch selbstleuchtende Objekte erzeugt werden. Der dritte Teil der Anwendungsbeispiele befasst sich mit Systemen für Informationsträger, für die das Maß der Leuchtdichte das Hauptkriterium darstellt (Tabelle 7.1, 3. Spalte; Abschn. 7.5).
320
7 Beleuchtungstechnik
7.3 Optische Systeme zur Beleuchtung Die folgenden Beispiele zeigen Systeme, die für Beleuchtungsaufgaben eingesetzt werden. Ziel dieser optischen Systeme ist es, bestimmte Flächen nach entsprechenden Vorgaben auszuleuchten. Je nach Anwendung müssen noch weitere Anforderungen erfüllt werden. 7.3.1 Beleuchtungssystem aus Lichtquellen und Reflektor Ein sehr weit verbreitetes optisches Beleuchtungssystem ist das Lichtquellen-Reflektor-System. Das von der Lichtquelle abgestrahlte Licht wird von dem Reflektor erfasst und umgelenkt. Die optischen Anforderungen an diese Systeme sind sehr unterschiedlich und erstrecken sich von „hell machen“ bis zur einer definiert vorgegebenen Beleuchtungsstärkeverteilung. Das folgende Prinzipbild zeigt ein solches System bestehend aus Lichtquelle und Reflektor (Abb. 7.1)
Abb. 7.1. Prinzipbild eines optischen Systems, bestehend aus Lichtquelle und Reflektor
Ein Teil des von der Lichtquelle abgestrahlten Lichtstromes (schematisch dargestellt als Linien) trifft auf den Reflektor auf und wird dort umgelenkt. Ziel ist es, dass der Lichtstrom möglichst effizient auf die Zielfläche gelangt (Fläche dargestellt durch Gitternetzlinien). Die Lichtstrahlen, welche nicht auf den Reflektor auftreffen, können nicht kontrolliert werden. Teilweise trifft dieses Licht auf die Zielfläche; teilweise geht es an der Zielfläche vorbei.
7.3 Optische Systeme zur Beleuchtung
321
Die folgenden zwei Bilder (Abb. 7.2 und Abb. 7.3) stellen Produkte dar, die nach diesem Grundprinzip jedoch für sehr unterschiedliche Anwendungen aufgebaut sind. Abbildung 7.2 zeigt eine einfache Leuchte für die Raumbeleuchtung im Privatbereich. Im Gegensatz dazu zeigt Abb. 7.3 eine UHP (Ultra-High-Pressure)-Lichtquelle mit Reflektor für LCDProjektoren. Diese Lichtquelleneinheit ist so ausgelegt, um auf einer kleinen Fläche möglichst viel Licht zu bündeln.
Abb. 7.2. Leuchte für Raumbeleuchtung
Abb. 7.3. Lichtquelleneinheit für einen Videoprojektor
Zur Bewertung von Beleuchtungssystemen wird die Beleuchtungsstärke E verwendet, welche von der Leuchte in der Zielebene erzeugt wird. Ist die Beleuchtungsstärke nicht an jedem Flächenelement der Zielfläche identisch, wird auch der Begriff der maximalen, minimalen sowie der mittleren Beleuchtungsstärke verwendet, um das Ergebnis zu beschreiben. Beispiel: Eine 120 W Halogenlichtquelle wird in einem elliptischen Reflektor positioniert. Die Lichtquelle emittiert einen Lichtstrom von 2.600 lm. Der Reflektor umschließt die Lichtquelle so, dass 70% des Lichtes vom Reflektor erfasst werden. Licht, das nicht auf den Reflektor trifft, wird vernachlässigt. Der Reflexionsgrad des Reflektors beträgt 85%. Mit dem optischen System wird eine quadratische Fläche mit 200 cm Kantenlänge ausgeleuchtet. Zu berechnen ist die gemittelte Beleuchtungsstärke auf der Fläche, welche durch dieses optische System erzeugt wird.
322
7 Beleuchtungstechnik
Lösung: E
)
2.600 lm 0,7 0,85
A
4 m2
387 lx .
Ƒ
7.3.2 Beleuchtungssystem aus Lichtquelle und Linse Eine weitere Möglichkeit zur Objektbeleuchtung ist ein optisches System, bestehend aus Lichtquelle und Linse. Die Lichtlenkung geschieht in diesem Fall nicht durch Reflexion, sondern über Brechung beim Grenzflächenübergang zwischen dem Linsenmaterial und der umgebenden Luft. Abbildung 7.4 zeigt ein solches System. Als Lichtquelle wird hierbei eine LED verwendet.
Abb. 7.4. LED mit Freiformvorsatzlinse zur homogenen Beleuchtung (Werkfoto: opsira GmbH)
Die Linse ist aus so genannten Freiformflächen aufgebaut. Die Linsenflächen sind so gestaltet, dass eine homogene Ausleuchtung der Zielfläche erreicht wird. Dies bedeutet: Der Lichtstrom, welcher von der Lichtquelle auf die Linse trifft, wird so umgelenkt, dass im Zielfeld auf jedes Flächenelement ein gleich großer Lichtstrom auftrifft. 7.3.3 Arbeitsplatzleuchte An Arbeitsplätzen im Allgemeinen und Bildschirmarbeitsplätzen im Besonderen werden an die Beleuchtung hohe Anforderungen gestellt. Dies bezieht sich insbesondere auf die Ausleuchtung des Arbeitsplatzes. Es soll-
7.3 Optische Systeme zur Beleuchtung
323
te mindestens eine mittlere Beleuchtungsstärke von 500 lx erreicht werden. Es wird zudem gefordert, dass die Leuchten keine Blendung verursachen. Blendung entsteht, wenn Lichtstrahlung unter einem sehr flachen Winkel, > 50° zur Leuchtennormalen, aus der Leuchte austritt. Die Blendung soll möglichst gering sein, damit zum Beispiel auf einem Bildschirm keine störenden Reflexe entstehen. Vielfältig werden Arbeitsplatzleuchten zudem eingesetzt, um neben dem direkten Arbeitsplatz auch die nähere Umgebung des Arbeitsplatzes aufzuhellen (Abb. 7.5).
Abb. 7.5. Prinzipbild einer Leuchte mit Direkt- und Indirektanteil
Auf der linken Seite der Abb. 7.5 befindet sich die Arbeitsplatzleuchte. Die Leuchte strahlt das Licht primär nach unten auf die Arbeitsplatzfläche und nach oben auf die Decke des Raumes. Das auf die Decke auftreffende Licht wird von dieser reflektiert und auf die Arbeitsplatzfläche sowie den nahen Umgebungsbereich umgelenkt. Dieses Prinzip wird auch als DirektIndirektbeleuchtung bezeichnet. Das Licht, das den Arbeitsbereich beleuchtet, wird sowohl durch eine direkte Abstrahlung von der Leuchte, als auch durch indirektes Licht (abgestrahlt von der Decke) erzeugt. Voraussetzung dafür ist eine möglichst helle Farbe bzw. möglichst hohe diffuse Reflexion der Decke (Abb. 7.6).
324
7 Beleuchtungstechnik
Abb. 7.6. Aufhellung des Deckenbereichs sowie der Arbeitsplatzumgebung
Die Vorteile dieser Technik liegen darin, dass die Beleuchtung, die von der Decke reflektiert wird, von einer großen Fläche abgestrahlt wird. Dadurch wird störendes Reflexlicht und Schattenbildung verringert. Indirekte Beleuchtung mit Sekundärreflektortechnologie Die indirekte Beleuchtungstechnologie wird dort angewandt, wo eine gleichmäßige, großflächige Ausleuchtung erzeugt werden soll und störendes Blendlicht zu minimieren ist. Diese Technologie wird hauptsächlich im Außenbereich oder in der Ausleuchtung großer Räume eingesetzt. Die Beleuchtungstechnologie besteht im Wesentlichen aus der Lichtquelleneinheit und einem Sekundärreflektor. Die Lichtquelleneinheit (Werfer) setzt sich aus dem Leuchtmittel und dem Hauptreflektor zusammen. Der Reflektor ist meist eine parabolische oder elliptische Fläche. Ziel der Lichtquelleneinheit ist es, den Lichtstrom der Lichtquelle möglichst effizient auf den Sekundärreflektor zu strahlen. Der Sekundärreflektor lenkt die Lichtstrahlung zu der eigentlichen Beleuchtungsfläche um. Die Reflexionsflächen des Sekundärreflektors bestehen in den meisten Fällen aus einzelnen Facetten, wobei jede einzelne Facette die Zielfläche ausleuchtet. Der Vorteil dieser Technik ist, dass ein Betrachter nicht in die kompakte Lichtquelleneinheit blicken kann. Der Betrachter sieht die Lichtstrahlung erst, nachdem diese durch den Sekundärreflektor umgelenkt wurde. Der Sekundärreflektor ist deutlich größer als die Lichtquelleneinheit. Dadurch ist die Lichtstrahlung auf dem Sekundärreflektor nicht mehr so konzentriert und es entsteht eine geringere Blendstrahlung. Das folgende Prinzipbild (Abb. 7.7) verdeutlicht die Technik:
7.3 Optische Systeme zur Beleuchtung
325
Abb. 7.7. Prinzip des Sekundärreflektors (Werkfoto: SITECO Beleuchtungstechnik GmbH)
Die dargestellte Lichtpunktgröße, der Lichtpunktabstand sowie die Beobachterposition sind entscheidende Faktoren zur Reduzierung von Blend-
Abb. 7.8. Leuchte mit Indirekttechnologie (Werkfoto: SITECO Beleuchtungstechnik GmbH)
326
7 Beleuchtungstechnik
licht. Auch aus wartungstechnischer Sicht haben solche Leuchten einen Vorteil. Die Lichtquelleneinheiten können an besser zugänglichen Stellen (z.B. näher am Boden oder an Wänden) positioniert werden. Dagegen sind die Sekundärreflektoren höher angeordnet, um den Zielbereich von oben auszuleuchten (Abb. 7.8). 7.3.4 Kraftfahrzeug-Frontbeleuchtung Einrichtungen zur Beleuchtung des vorderen Verkehrsraumes sind der Abblendlicht-Scheinwerfer, der Fernlicht-Scheinwerfer sowie der NebelScheinwerfer (Tabelle 7.1, linke Spalte). Diese Leuchten müssen entsprechend den ECE-Regelungen (gültige Norm für Europa) eine bestimmte Beleuchtungsstärkeverteilung in einem Abstand von 25 m an einer vertikal stehenden Wand erzeugen. Die Ausleuchtungsvorschriften auf der vertikal stehenden Wand sind jeweils so gewählt, dass hieraus eine gute Beleuchtung der horizontal orientierten Fahrbahn sowie etwaiger Objekte im Raum vor dem Fahrzeug gegeben ist. Abbildung 7.9 zeigt drei Beleuchtungssituationen einer Kfz-Frontbeleuchtung.
Abb. 7.9. Vergleich von Abblendlicht (oberes Bild), Fernlicht (mittleres Bild) und Kombination von Abblend- und Nebellicht (unteres Bild) (Werkfoto: Hella KGaA Hueck & Co.)
7.3 Optische Systeme zur Beleuchtung
327
Ein wichtiges Kriterium für Nebel-Scheinwerfer und AbblendlichtScheinwerfer ist eine geringe Blendwirkung des entgegenkommenden Verkehrs. Um dies zu erreichen, gibt es bei diesen Scheinwerfern die sogenannte Hell-Dunkel-Grenze. Diese Grenze befindet sich etwas unterhalb der Horizontallinie, die sich auf die mittlere Position der Leuchte bezieht. Unterhalb dieser Grenze muss die erzeugte Beleuchtungsstärke sehr hoch sein, damit der Bereich, der weit vom Fahrzeug entfernt ist, ausgeleuchtet wird. Oberhalb dieser Grenze muss die Beleuchtungsstärke sehr gering sein, um die entgegenkommenden Fahrer nicht zu blenden. Bei Abblendlicht-Scheinwerfern verläuft im rechten Bereich die Hell-Dunkel-Grenze nach oben, über die Horizontallinie hinaus. Dies dient dazu, dass Objekte am rechten Straßenrand gut zu erkennen sind. Auf dem oberen Bild ist dies dadurch zu erkennen, dass der rechte Fahrbahnbereich besser ausgeleuchtet ist. Im Vergleich dazu zeigt das mittlere Bild die Beleuchtung der Strasse mit dem Fernlicht-Scheinwerfer. Die Objekte in der Ferne sind mit dieser Lichtverteilung gut zu erkennen, da das Fernlicht keine HellDunkel-Grenze besitzt. Das Nebellicht (unteres Bild) leuchtet den Nahbereich vor dem Fahrzeug mit einer sehr breiten Verteilung aus. Die geforderte Beleuchtungsstärkeverteilung für Kfz-Scheinwerfer wird hauptsächlich durch folgende drei unterschiedliche optische Systeme realisiert: 1. System mit Streuscheibe Das von der Lichtquelle ausgesendet Licht wird über einen ParaboloidReflektor gesammelt und kollimiert. Über die Brechung an einer strukturierten Abdeckscheibe der Leuchte wird die gewünschte Lichtverteilung erzeugt. 2. Freiformreflektor Das Lichtquellenlicht wird über einen Reflektor, der aus Freiformflächen aufgebaut ist, so umgelenkt, dass sich die geforderte Beleuchtungsstärkeverteilung ergibt. Die Abdeckscheibe der Leuchte ist nicht strukturiert und hat nur einen geringen Einfluss auf die Lichtverteilung. 3. Projektionssystem Das Lichtquellenlicht wird über einen Freiformreflektor in die Brennebene einer Projektionslinse umgelenkt. Der Reflektor ist so geformt, dass sich in der Brennebene eine definierte Beleuchtungsstärkeverteilung ergibt. Die Projektionslinse bildet diese Beleuchtungsstärkeverteilung auf die Fahrbahn ab. Durch das Einbringen einer Blende in der Linsenbrennebene kann eine scharf begrenzte Hell-Dunkel-Grenze erzeugt werden. Anbau der Frontbeleuchtung an Fahrzeugen Im Gegensatz zu Abblendlicht- und Fernlichtscheinwerfer ist der Nebelscheinwerfer tief am Fahrzeug angebaut. Dadurch wird der Nebel gut durch-
328
7 Beleuchtungstechnik
drungen, der Fahrer aber nicht so stark durch die Reflexion des Nebels geblendet (Abb. 7.10).
Abb. 7.10. Anordnungsbeispiel von Abblendlicht-, Fernlicht- und Nebellichtscheinwerfer am Fahrzeug
Zur Verbesserung der Straßenausleuchtung bei Kurvenfahrten sind aktuell Systeme in der Entwicklung, die durch Drehen der Lichtquelleneinheit die Strasse besser ausleuchten. Fährt das Fahrzeug in eine Kurve, dann wird der Lichtkegel in den vorausberechneten Kurvenverlauf eingeschwenkt (Abb. 7.11).
Abb. 7.11. Funktionsbild für Kurvenabblendlicht (Werkfoto: DaimlerChrysler AG)
7.3.5 Operationsleuchten (OP-Leuchten) Operationsleuchten ermöglichen eine optimale Ausleuchtung von Wundfeldern. Da hohe Anforderungen an OP-Leuchten gestellt werden, gehören
7.3 Optische Systeme zur Beleuchtung
329
diese mit zu den komplexeren Leuchtensystemen. Nach der Norm EN 60601-1-41 sind dies im Wesentlichen folgende Anforderungen (Abb. 7.12):
Abb. 7.12. Geforderte Verteilung der Beleuchtungsstärke
x Hohe Beleuchtungsstärke zwischen 40.000 lx und 160.000 lx. x Definiertes Leuchtfeld. x Gute Tiefenschärfe, um die Notwendigkeit des Nachstellens der OPLeuchte zu verringern.
330
7 Beleuchtungstechnik
x Schattenfreies Licht, auch wenn Objekte (Hand, Kopf, OP-Besteck) zwischen der Leuchte und dem Wundfeld eingebracht werden. x Gute Ausleuchtung von schmalen und tiefen Wundhöhlen. x Geringe Bestrahlungsstärke im Wundfeld, damit die Wunde nicht austrocknet. x Spektrale Lichtemission mit einem hohen Farbwiedergabeindex, damit die Farben des Wundfelds nicht verfälscht werden. x Hohe Farbtemperatur der Lichtemission. Die Beleuchtungsstärkverteilung soll möglichst rotationssymmetrisch sein und in der Intensität vom Zentrum nach außen stetig abfallen (GaußVerteilung). Der Durchmesser des Leuchtfeldes mit 50% Beleuchtungsstärke, bezogen auf das Maximum, muss hierbei mindestens die Hälfte des Durchmessers des Leuchtfeldes mit 10% Beleuchtungsstärke erreichen. Die Qualität des schattenfreien Lichtes wird durch den Einsatz von großen Leuchten mit einem Durchmesser von 500 mm bis 1.000 mm erreicht. Jeder Teil der Leuchte soll nach Möglichkeit den kompletten Wundfeldbereich ausleuchten. Wird ein Objekt in den Lichtkanal eingeführt, ergibt sich zwar eine Abnahme in der Beleuchtungsstärke, aber kein Schatten. In Abb. 7.13 ist der Strahlengang einer OP-Leuchte zu sehen.
Abb. 7.13. Strahlengang einer OP-Leuchte in Falschfarbendarstellung (Werkfoto: opsira GmbH)
Beschichtete Filter verändern die spektrale Lichtemission der eingesetzten Lichtquelle so, dass die Anforderungen an Farbtemperatur und Farbwiedergabe erfüllt werden können. Zum Teil werden für die Filtergläser
7.3 Optische Systeme zur Beleuchtung
331
Materialien verwendet, die einen hohen Absorptionsgrad im Infraroten besitzen. Dadurch wird die Infrarotemission und damit die Wärmestrahlung der Leuchte minimiert. Abbildung 7.14 zeigt OP-Leuchten im Einsatz.
Abb. 7.14. OP-Leuchten im Einsatz (Werkfoto: Draeger Medical AG)
Als Lichtquellen werden in OP-Leuchten Gleichstrom-Halogenlichtquellen eingesetzt, die mit bis zu 30 lm/Wel eine hohe Lichtleistung im Verhältnis zur elektrischen Anschlussleistung aufweisen. Auch Gasentladungslichtquellen werden eingesetzt. Diese haben im Gegensatz zu Halogenlichtquellen eine spektrale Lichtemission, die der für OP-Leuchten geforderten Lichtemission in Bezug auf Farbtemperatur, Farbwiedergabe und geringer Infrarotemission schon sehr nahe kommt. Zudem haben diese Lichtquellen mit etwa 70 lm/Wel eine höhere Lichtausbeute als Halogenlichtquellen. In der Zukunft werden zunehmend LED-Lichtquellen in den OP-Leuchten Einzug halten. Diese haben den Vorteil, dass Sie nahezu keine Infrarotemission aufweisen und dadurch die Bestrahlungsstärke (Wärme) im Wundfeld bis zum physikalisch Möglichen verringert. 7.3.6 Lichtleiter für Beleuchtung Lichtleiter in der Beleuchtungstechnik dienen dazu, den Lichtstrom von einer Lichtquelle an einen entfernteren Ort zu transportieren. Der Lichttransport basiert hierbei auf der internen Totalreflexion zwischen dem Lichtleitermaterial (Kernmaterial) und dem umgebenden Material (Mantelmaterial, Abschn. 1.1.3). Damit Totalreflexion entstehen kann, muss das
332
7 Beleuchtungstechnik
umgebende Material einen geringeren Brechungsindex als das Kernmaterial besitzen. Das umgebende Material kann beispielsweise auch Luft sein (Brechungsindex n • 1). Dies ist vor allem bei Lichtleiter der Fall, die als Kunststoffspritzgussteile hergestellt werden (Abb. 7.15).
Abb. 7.15. Prinzip eines Lichtleiters (Werkfoto: opsira GmbH)
Für eine möglichst effiziente Einkopplung des LED-Lichtes in den Lichtleiter befindet sich eine Einkoppel-Optik an der Stirnseite des Lichtleiters. Ein Lichtleiter kann auch entlang der Lichtleiterstrecke gekrümmt sein. Der Krümmungsradius darf ein bestimmtes Verhältnis in Bezug zum Lichtleiterdruchmesser nicht unterschreiten, da sonst die interne Totalreflexion nicht mehr gegeben ist. Erfordert die Anwendung jedoch einen geringen Krümmungsradius, kann durch eine Aluminium-Beschichtung des Lichtleiters der Wirkungsgrad verbessert werden.
Abb. 7.16. Endoskopische Beleuchtungseinheit (Werkfoto: ATMOS MedizinTechnik GmbH)
Ein typisches Beispiel eines Lichtleiters für die Beleuchtung ist die medizinische Endoskopie (Abb. 7.16). Hierbei wird über einen dünnen Lichtleiter die Lichtstrahlung in den Patientenkörper eingeführt. Nach dem Austritt aus dem Lichtleiter beleuchtet dieses Licht die Operationsstelle. Eine Kamera am endoskopischen Instrument kann die Operationsstelle am Bildschirm sichtbar machen.
7.4 Optische Systeme zur Signalisation
333
7.4 Optische Systeme zur Signalisation Eine Signalbeleuchtung wird eingesetzt, um Betrachter auf ein Objekt oder einen bestimmten Zustand aufmerksam zu machen. Der Betrachter schaut hierbei im Normalfall direkt auf die Leuchte. Die Hauptanforderung an diese Leuchten ist die Lichtstärkeverteilung. Die geforderte Lichtstärkeverteilung ist so festgelegt, dass ein Betrachter ab einem gewissen Betrachtungsabstand das Signal aus allen möglichen Betrachtungsrichtungen gut erkennen kann. Die Homogenität der flächenhaften Abstrahlung hat eine untergeordnete Rolle, da die Signalleuchte keine bzw. nur sehr geringe Information enthält. Zum Teil werden bei Signalleuchten unterschiedliche Zustände durch unterschiedliche Farben dargestellt. Da Signalleuchten keine Flächen zu beleuchten haben, sind die Anforderungen an die Lichtströme relativ gering. Aus diesem Grund werden LED Lichtquellen schon lange (seit etwa 1990) im Bereich der Signalbeleuchtung eingesetzt. 7.4.1 Straßenverkehrsignal (Ampel) Ein sehr bekanntes Beispiel für eine Signalbeleuchtung ist das Straßenverkehrssignal (Abb. 7.17).
Abb. 7.17. LED-Signalgeber für den Straßenverkehr (Werkfoto: Siemens AG)
Der Signalgeber muss der Norm EN12368 entsprechen. Dort sind unterschiedliche Lichtstärkeverteilungen definiert. Eine typische Lichtstärkeverteilung ist aus Tabelle 7.2 zu entnehmen. Tabelle 7.2. Geforderte Lichtstärkeverteilung in vertikaler (V) und horizontaler Abstrahlrichtung (H) eines Straßenverkehrssignalgebers Typ W V/H 00 -30 -50 -100 -200
-300 2cd
-200 6cd
-100 110cd 70cd
16cd 4cd
-50 170cd 150cd
00 200cd 160cd 120cd 60cd 4cd
50 170cd 150cd
100 110cd
200 6cd
300 2cd
70cd 16cd 4cd
334
7 Beleuchtungstechnik
Für den Aufbau des optischen Systems gibt es hauptsächlich zwei unterschiedliche Möglichkeiten: 1. Halogenlichtquellen mit Reflektor und Aufweitungsoptik Der Reflektor sammelt und kollimiert das Licht. Die Aufweitungsoptik lenkt das Licht in die gewünschten Abstrahlbereiche. 2. LED-Lichtquellen mit Fresnellinse und Aufweitungsoptik. Abbildung 7.18 zeigt einen LED-Straßenverkehrssignalgeber im Schnitt.
Abb. 7.18. LED-Lichtquelle und Transmissionsoptik, bestehend aus Fresnellinse und Aufweitungsoptik Die optische Funktion der Lichtlenkung teilt sich in zwei Komponenten auf. Das Licht, das von der Lichtquelle abgestrahlt wird, wird durch eine Fresneloptik kollimiert. Eine Aufweitungsoptik lenkt das Licht so um, dass die von der Norm geforderte Abstrahlrichtung erreicht wird. Die Aufweitungsoptik besteht hierbei teilweise aus Freiformflächen. Dadurch ist es möglich, die Lichtlenkung so zu realisieren, dass der geforderte Lichtstrom in allen Richtungen möglichst exakt abgestrahlt wird. Eine weitere, jedoch weniger wichtige optische Anforderung ist die Flächenhomogenität des Signals. Damit das Signal aus allen Blickrichtungen homogen erscheint, ist die Aufweitungsoptik aus sehr vielen einzelnen Facetten aufgebaut, wobei jede Facette das Licht in den kompletten Betrachtungsbereich umlenkt. Zudem wird für ein Straßenverkehrssignal ein geringer Rückstrahleffekt (Phantomlicht) bei Bestrahlung durch die Sonne gefordert. Dadurch soll verhindert werden, dass aufgrund von Sonneneinstrahlung für den Betrachter eine falsche Information entsteht. Straßenverkehrsignale mit einem geringen Phantomlicht erzeugen bei einer Beleuchtung mit 40.000 lx, dies entspricht in etwa einer tief stehenden Sonne, nur einen Rückstrahlwert, der um den Faktor 16 geringer ist als die Signallichtstärke.
7.4 Optische Systeme zur Signalisation
335
7.4.2 Fahrzeug-Signalleuchten Eine Fahrzeug-Signalbeleuchtung zeigt dem rückwärtigen bzw. dem entgegenkommenden Verkehr das Vorhandensein eines Fahrzeuges bzw. ein Fahrmanöver an. Dazu dienen die Bremsleuchte, die hochgesetzte Bremsleuchte, die Schlussleuchte, der Fahrtrichtungsanzeiger, die Nebelschlussleuchte sowie das Tagfahrlicht. Die Anforderung an diese Leuchten wird wesentlich durch die Lichtstärkeverteilung definiert. Diese Lichtstärkeverteilungen sowie weitere Vorschriften (z.B. zum Anbau der Leuchten) sind in den ECE-Regelungen definiert. Tabelle 7.3 zeigt den nach der ECE-R6 Norm geforderten Hauptabstrahlbereich für rückseitig angebaute Fahrtrichtungsanzeiger. Tabelle 7.3. Geforderte Lichtstärkeverteilung in vertikaler (V) und horizintaler (H) Richtung für einen Fahrtrichtungsanzeiger V/H 100 50 00 -50 -100
-200
-100
5cd
10cd 17,5cd 10cd
5cd
-50 10cd 45cd 10cd
00 35cd 50cd 35cd
50 10cd 45cd
100
200
10cd 17,5cd 10cd
5cd 5cd
10cd
Um die Anforderung der Norm zu erfüllen, muss die Abstrahlung der verwendeten Lichtquelle geändert werden. Hierzu werden oft optische Systeme, bestehend aus Lichtquelle, Reflektor und Aufweitungsoptik, verwendet. Abbildung 7.19 verdeutlicht das Prinzip.
Abb. 7.19. Prinzipbild eines optischen Systems für Fahrzeugsignalleuchten
336
7 Beleuchtungstechnik
Der Reflektor bündelt das von der Lichtquelle abgestrahlte Licht. Die Aufweitungsoptik weitet das Licht so auf, dass genügend Licht in die geforderten Abstrahlbereiche umgelenkt wird (Abb. 7.20).
Abb. 7.20. Heckleuchte mit Fahrtrichtungsanzeiger (Werkfoto: DaimlerChrysler AG)
7.5 Optische Systeme für Informationsträger Informationsträger (z.B. Displays) enthalten in der Regel komplexe Informationen. Diese werden von einem Betrachter durch den Kontrast sowie den Farbunterschied wahrgenommen. Deshalb werden an die Beleuchtungssysteme hohe Anforderungen gestellt. Hierbei ist es vor allem notwendig, dass die Informationsträger aus allen Blickrichtungen eine homogene Leuchtdichteverteilung besitzen. Nur bei einem homogen ausgeleuchteten Symbol ist eine gute Erkennbarkeit gewährleistet. 7.5.1 Beleuchtetes Bedienelement Im Innenraum von Fahrzeugen befindet sich eine Vielzahl von Bedienelementen. Diese müssen für Nachtfahrten beleuchtet werden. Abbildung 7.21 zeigt einen Schalter für die Kfz-Heckscheibenheizung. Zu sehen ist dies im Tagdesign (Auflichtbeleuchtung, linkes Bild) sowie im beleuchteten Nachtdesign (rechtes Bild). Im Tagdesign ist das Symbol wegen der unterschiedlichen Reflexionseigenschaften des Symbols (weiß) und der Umgebung (Anthrazit) zu erkennen. Im Nachtdesign leuchtet das Symbol aktiv. Das Leuchten der Symbole wird durch Lichtquellen erreicht, die sich in den Schaltern befinden. Das Licht durchscheint das streuende Material der Abdeckkappe des Schalters. Der prinzipielle Aufbau eines solchen Systems ist in Abb. 7.22 dargestellt.
7.5 Optische Systeme für Informationsträger
337
Abb. 7.21. Hinterleuchtetes Bedienelement im Tag- und Nachtdesign
Vor der Lichtquelle befindet sich die Abdeckung aus einem streuenden Material. Diese Abdeckung wird von vorne mit einem nichttransparenten Lack lackiert. Nach dem Lackieren wird mit Hilfe eines Laserverfahrens der Lack partiell abgetragen, und das gewünschte Symbol freigelegt. Das Licht kann das Abdeckkappenmaterial bis zu der Lackierung durchdringen. An den Stellen, an denen kein Lack vorhanden ist, kann das Licht aus der Abdeckscheibe austreten. Dadurch erscheint das Symbol hell und die Umgebung um das Symbol bleibt dunkel. Durch das streuende Material wird die Lichtstrahlung bei der Materialdurchdringung diffus gestreut. Die Lichtabstrahlung bekommt dadurch eine Lambert´sche Charakteristik. Dies ergibt eine aus allen Blickrichtungen identische Leuchtdichteverteilung.
Abb. 7.22. Funktionsprinzip einer Schalterhinterleuchtung
338
7 Beleuchtungstechnik
7.5.2 Lichtleiter zur Hinterleuchtung von Displays Ein weites Einsatzgebiet von Lichtleitern ist die Hinterleuchtung von Displays oder Informationsträgern. Die Hinterleuchtung dient dazu, die dargestellte Information sichtbar zu machen (Abb. 7.23).
Abb. 7.23. Hinterleuchtetes Kfz-Display
Die Lichtabstrahlung einzelner Punktlichtquellen oder einer linienförmigen Lichtquelle wird durch das optische System homogen über die Gesamtfläche verteilt. Ziel ist eine möglichst homogene Leuchtdichteverteilung des Displaybereichs. Zudem sollte das Gesamtsystem sehr dünn sein, um möglichst wenig Bauraum zu beanspruchen. Abbildung 7.24 zeigt ein Displayhinterleuchtungssystem, bestehend aus Lichtquelle, Lichtleiter und Streuscheibe. Das LCD (Liquid Crystal Display) befindet sich bei diesem Aufbau vor der Streuscheibe.
Abb. 7.24. Displayhinterleuchtung mit Lichtleiter
Das Licht der LED-Lichtquellen wird stirnseitig in den Lichtleiter eingekoppelt. Der Lichtleiter ist plattenförmig ausgeführt und befindet sich im kompletten Bereich hinter dem Display. Durch eine Auskoppelstruktur, (z.B. durch Prismen, wie in Abb. 7.24 oder einer weißen Bedruckung) wird die Lichtstrahlung in Richtung des Betrachters aus der Lichtleitplatte ausgekoppelt. Da die ausgekoppelte Lichtmenge über die Weglänge konstant sein soll, die im Lichtleiter vorhandene Lichtmenge durch die Auskopplung jedoch abnimmt, muss die Auskoppelstruktur einen immer größeren prozentualen Anteil des Lichtes auskoppeln. Dies wird durch eine Änderung der Auskoppelstruktur entlang des Lichtweges erreicht. In Abb. 7.24 geschieht dies, indem der Querschnitt des Lichtleiters verringert wird. Eine weitere Möglichkeit besteht darin, die Dichte der Auskoppelsegmente entlang der Wegstrecke zu erhöhen.
7.5 Optische Systeme für Informationsträger
339
Zur besseren Homogenisierung befindet sich vor dem Lichtleiter eine Streufolie. Um den Wirkungsgrad zu erhöhen, lässt sich hinter dem Lichtleiter auch ein Reflektor anbringen. Dieser reflektiert das Licht, das aus dem Lichtleiter nach hinten austritt, wieder nach vorne. Vor der Leuchtfläche befindet sich beispielsweise ein LCD, auf dem die Information dargestellt ist. Das Licht transmittiert durch das LCD und wird entweder absorbiert oder nur teilabsorbiert. Hierdurch ergibt sich ein Kontrast in der Leuchtdichteverteilung, der dem Betrachter ermöglicht, die dargestellte Information zu erkennen. 7.5.3 Lichtleiter zur Hinterleuchtung von Statusanzeigen Statusanzeigen sind beispielsweise die Anzeige der Geschwindigkeit des Kfz. Die Tachonadel eines Kfz-Cockpits kann als Lichtleiter nach dem oben beschriebenen Prinzip ausgelegt werden (Abb. 7.25). Auch hierbei wird LED-Licht in einen Lichtleiter eingekoppelt und durch eine Struktur in Richtung des Betrachters umgelenkt.
Abb. 7.25. Beleuchtete Geschwindigkeitsanzeige (Werkfoto: opsira GmbH)
Zur Hinterleuchtung der Geschwindigkeitssymbole wird das gleiche Prinzip verwendet. Der Lichtleiter verteilt das LED-Licht über die Ringfläche, auf der die Geschwindigkeitssymbole angeordnet sind. Die Auskoppelstruktur lenkt das Licht in Richtung Betrachter um. Durch die Änderung der Auskoppelstruktur entlang des Lichtleiters ist die Leuchtdichte im kompletten Bereich homogen.
340
7 Beleuchtungstechnik
7.6 Simulation in der Beleuchtungstechnik 7.6.1 Simulationsprogramme für Entwicklung optischer Systeme Zur Entwicklung von optischen Systemen für die Beleuchtungstechnik werden Berechnungs- bzw. Simulationsprogramme verwendet, mit deren Hilfe sich das Verhalten dieser Systeme voraussagen lässt. Solche Programme bezeichnet man als Strahlverfolgungsprogramme oder auch als Ray-Tracing-Programme. Man geht hierbei davon aus, dass sich die Ausbreitung des Lichtes durch Strahlen beschreiben lässt. Basierend auf dieser Theorie lässt sich die geometrische Optik und somit auch das Beleuchtungssystem simulieren. Gute optische Simulationsprogramme ermöglichen einen sehr realitätsnahen Aufbau der virtuellen Modelle am Computer. Dies bezieht sich zum einen auf die Geometrie der optischen Systeme. Dies bedeutet, dass die Geometrien der verwendeten Komponenten als 3D-Geometrien modelliert werden. Zum anderen ist die Modellierung der optischen Eigenschaften der Komponenten ein sehr entscheidendes Kriterium dafür, wie aussagefähig das spätere Simulationsergebnis ist. Die Programme lassen sich wesentlich in zwei Gruppen einteilen: 1. Simulationsprogramme für Linsensysteme (Sequenzielle Strahlverfolgung; sequential ray tracing). 2. Simulationsprogramme für Beleuchtungssysteme (Nicht Sequenzielle Strahlverfolgung; non-sequential ray tracing) Im Folgenden wird ein einfaches optisches System aus Lichtquelle und Reflektor (Bild 7.1) simuliert. Die Lichtstrahlen gehen von einer Lichtquelle aus, die in der Simulationssoftware modelliert wird. Da das Ray-Tracing Verfahren ein statistisches Verfahren ist, erfolgt der Strahlenaufbau der Lichtquelle mit einem Zufallsgenerator nach der Monte-Carlo-Methode. Ein Lichtstrahl wird durch 7 Parameter charakterisiert: Drei für die Beschreibung des Ortes, drei für die Beschreibung der Richtung und einer für die Beschreibung des Lichtstroms des Strahles. Nach dem Aussenden der Lichtstrahlen von der Lichtquelle „schauen“ die Strahlen, auf welches Objekt sie als nächstes treffen. Da die Strahlen auf unterschiedliche Objekte treffen können, müssen Simulationsprogramme verwendet werden, welche die sogenannte „Nicht Sequenzielle Strahlverfolgung“ beherrschen. Für die Strahlen in einem optischen System gibt es sehr viele optische Pfade. Wie in Abb. 7.26 zu erkennen ist, gibt es einen optischen Pfad von der Lichtquelle über den Reflektor zur
7.6 Simulation in der Beleuchtungstechnik
341
Abb. 7.26. Darstellung von zwei optischen Pfaden
Beleuchtungsebene und einen zweiten optischen Pfad von der Lichtquelle direkt zur Beleuchtungsebene. Im Gegensatz hierzu lassen sich für viele Anwendungen aus der klassischen abbildenden Optik Simulationsprogramme einsetzen, die nur die „Sequenzielle Strahlverfolgung“ beherrschen müssen, da der Weg der Strahlen vorhersehbar ist. Die Strahlen gehen von einer Linsenfläche zur nächsten Linsenfläche, bis sie auf die Bildebene treffen. Diese Programme zeichnen sich dadurch aus, dass die Strahlen sehr schnell berechnet werden. Dies ist für die Optimierung von Linsensystemen von Vorteil.
342
7 Beleuchtungstechnik
7.6.2 Modellbildung für die optische Simulation Bei der Simulation des optischen Verhaltens von Systemen ist die Modellierung der optischen Komponenten entscheidend für das erzielbare Ergebnis. Nur eine sehr realitätsnahe Modellierung ermöglicht es, dass die Simulationsergebnisse eine gute Übereinstimmung mit dem realen Verhalten ergeben. Tabelle 7.4 zeigt eine Übersicht des Modellaufbaus für die optische Simulation von Beleuchtungssystemen. Tabelle 7.4. Modellbildung zur Simulation von Beleuchtungssystemen Lichtquellenmodellierung - Geometrische Strahlmodellierung o Aufbau der Lichtquelle als optisches System o Nahfeldfotogoniometrische Lichtquellenvermessung - Spektrale Strahlenmodellierung Modellieren der Materialeigenschaften der optischen Komponenten - Streucharakteristik - Spektrale Reflexion, Transmission, Absorption - Spektraler Brechungsindex (Dispersion) Modellieren der optischen Komponenten - Reflexionsoptik - Transmissionsoptik - Diffraktive Optik
Die Modellierung der optischen Komponenten (Lichtquellen und Materialien) basiert sehr oft auf der messtechnischen Erfassung des Verhaltens der Komponenten. Im Folgenden ist die Messtechnik beschrieben, die für das Erfassen der optischen Parameter eingesetzt werden kann. Lichtquellenmodellierung für die optische Simulation Der Aufbau des Lichtquellenmodells ist sehr wichtig, da bei dem Lichtquellenmodell die Simulation beginnt. Abweichungen des Lichtquellenmodells von der Realität beeinträchtigen direkt das Simulationsergebnis. Wichtige Kriterien für die Lichtquellenmodellierung sind die geometrische Abstrahlung der Lichtquelle sowie die spektrale Emission der Lichtquelle. Früher wurde die Lichtquelle sehr oft als Punktlichtquelle in der optischen Simulation angenommen. Als weitere Modellierung wurde die an der realen Lichtquelle gemessene Lichtstärkeverteilung dem Simulationsmodell zugewiesen. Diese Lichtquellenbeschreibung trifft jedoch bei weitem nicht die Realität. Bei allen Lichtquellen handelt es sich um ausgedehnte Lichtquellen. Zudem strahlt jedes Flächenelement mit einer anderen geometrischen Vertei-
7.6 Simulation in der Beleuchtungstechnik
343
lung. Aus diesem Grund wird versucht, die Lichtquelle möglichst exakt nachzubilden. Im Folgenden werden hierzu zwei Verfahren vorgestellt. 1. Geometrisches Lichtquellenmodell als optisches System Die exakte Beschreibung der inneren Lichtquellengeometrie sowie deren Materialeigenschaften ermöglichen es, die Lichtquelle als ein eigenes optisches System aufzubauen. Hierzu ist es notwendig, den inneren Aufbau der Lichtquelle geometrisch zu vermessen.
Abb. 7.27. Angeschliffene LED mit leuchtender Chip-Fläche
Abbildung 7.27 zeigt eine LED, die bis zur Mittenachse angeschliffen ist, ohne dass der Bonddraht beschädigt wurde. Mit einem Mikroskop kann nun sehr genau die innere Geometrie der LED vermessen werden und bei Bestromung der LED ist zu erkennen, an welcher Stelle des Chips die Lichtemission stattfindet. In Abb. 7.28 ist das Modell der Lichtquelle zu erkennen, das aufgrund der Messung an der LED aufgebaut wurde. Das
Abb. 7.28. Aus der geometrischen Vermessung abgeleitetes Simulationsmodell der LED
344
7 Beleuchtungstechnik
Modell der Lichtquelle wirkt wie ein optisches System. Strahlen gehen von dem Chip durch die Geometrie der Lichtquelle und werden entsprechend umgelenkt. Zur Kontrolle dieses Lichtquellenmodells wird oftmals die Lichtstärkeverteilung der realen Lichtquelle gemessen und mit der Lichtstärkeverteilung des Lichtquellenmodells verglichen. Zeigt dies eine gute Übreinstimmung, ist die Wahrscheinlichkeit hoch, dass die Lichtquelle gut modelliert ist. 2. Geometrisches Lichtquellenmodell auf Basis der Nahfeldfotogoniometrie Ein weiteres Verfahren für die Modellierung der geometrischen Lichtquellenabstrahlung ist die Nahfeldfotogoniometrie. Hierbei umkreist eine Leuchtdichtekamera die Lichtquelle, die auf einem Goniometer aufgespannt ist (Abb. 7.29).
Abb. 7.29. Nahfeldfotogoniometer für Lichtquellenvermessung (Werkfoto: opsira GmH)
7.6 Simulation in der Beleuchtungstechnik
345
Die Leuchtdichtemesskamera erfasst aus etwa 10.000 Richtungen jeweils ein Leuchtdichtebild der Lichtquelle (Abb. 7.30). Anhand der erfassten Leuchtdichtebilder lassen sich direkt Strahlendaten berechnen, welche in die optischen Simulationsprogramme importiert werden können. Je nach Anwendungsfall werden bis zu 50 Millionen Strahlen berechnet. Die berechneten Strahlendaten repräsentieren das geometrisch optische Verhalten der realen Lichtquellenabstrahlung. Abbildung 7.30 zeigt fünf Bilder einer LED aus unterschiedlichen Richtungen.
Abb. 7.30. Leuchtdichtebilder einer LED aus fünf Betrachtungsrichtungen
Das geometrisch-optische Verhalten der Lichtquelle ist in den Strahlendaten enthalten. Deshalb ist keine weitere Modellierung der Lichtquellengeometrie notwendig. Zum Teil wird dies aber in vereinfachter Form trotzdem durchgeführt, da Strahlen von umgebenden optischen Komponenten auf die Lichtquelle zurück treffen können und dort eine Abschattung verursachen. Diese Abschattung kann nur festgestellt werden, wenn im Simulationsmodell die Geometriedaten der Lichtquelle enthalten sind. Modellieren der spektralen Emission der Lichtquelle Eine spektrale Emission des Lichtquellenmodells ergibt sich, wenn die obige Messung mehrmals durchgeführt wird. Hierbei wird bei jeder Messung ein anderes spektrales Bandpassfilter eingesetzt, das jeweils nur einen bestimmten Wellenlängenbereich durchlässt. Die Strahlen, die aus jedem Messvorgang separat berechnet werden, repräsentieren das geometrisch-optische Verhalten für den entsprechenden Wellenlängenbereich. Modellierung der Materialeigenschaften Bei der Modellierung der Materialeigenschaften sind die spektrale Reflexion, die Transmission oder die Absorption sowie die Streucharakteristik die entscheidenden Kriterien. Modellierung der Streucharakteristik Die Streueigenschaft beschreibt, wie ein Strahl sich verhält, wenn dieser auf eine Materialoberfläche auftrifft. Abbildung 7.31 zeigt drei unterschiedliche Reflexionsarten.
346
7 Beleuchtungstechnik
Abb. 7.31. Darstellung unterschiedlicher Reflexionsarten
In Abb. 7.31 links ist die gerichtete Reflexion dargestellt. Diese Reflexion tritt bei idealen Spiegeln auf. Die mittlere Darstellung zeigt eine perfekte diffuse Reflexion. Die rechte Darstellung zeigt die Streucharakteristik eines realen Materials. Es handelt sich hierbei weder um eine gerichtete noch um eine perfekt diffuse Reflexion. Die Vermessung der Streucharakteristik kann mit Hilfe eines Streulichtgoniometers (Abb. 7.32) durchgeführt werden.
Abb. 7.32. Prinzipbild für die Vermessung der In-plane Streucharakteristik (Werkfoto: opsira GmbH)
Die reale Streucharakteristik lässt sich zum Beispiel durch die BSDF (Bidirectional scatter distribution function) beschreiben. Abbildung 7.33 zeigt einen Schnitt durch die an einer Materialprobe gemessene Streucharakteristik bei einem Einfallswinkel von 2°. Die Messdaten der reflektierten Intensität in Abhängigkeit vom Abstrahlwinkel lassen sich in den optischen Simulationsprogrammen direkt modellieren. Hierzu können entweder die Messdaten direkt eingegeben oder durch eine Fit-Funktion mathematisch nachmodelliert werden. Je nach Komplexität des Materials hat die Modellierung bei unterschiedlichen Einfallswinkeln zu erfolgen.
7.6 Simulation in der Beleuchtungstechnik
347
Abb. 7.33. Gemessene Streucharakteristik eines Reflektormaterials, überlagert mit einer Fit-Funktion
Modellierung der Spektraleigenschaften Mit Hilfe von Spektrometern können die spektralen Eigenschaften (Transmission, Reflexion, Absorption) erfasst werden. Abbildung 7.34 zeigt die spektrale Transmission eines roten Scheibenmaterials. Dieses Material wird im Automobilbereich als Abdeckscheibe für Rückleuchten verwendet.
Abb. 7.34. Spektrale Transmission einer rot eingefärbten Leuchtenabdeckscheibe (Werkfoto: opsira GmbH)
348
7 Beleuchtungstechnik
Die gemessenen Daten lassen sich mit den optischen Simulationsprogrammen modellieren und an die optischen Komponenten des Simulationsmodells zuweisen. 7.6.3 Auswertungen der optischen Simulation Mit optischen Simulationsprogrammen lassen sich umfangreiche Analysen durchführen. Diese Analysen sind notwendig, um das zu entwickelnde optische System auf bestimmte Anforderungen zu untersuchen, zu optimieren und gleichzeitig ein gutes Verständnis über das Verhalten des Systems zu erlangen. Im Folgenden ist ein Teil der Analysemöglichkeiten dargestellt. x x x x x x
Beleuchtungsstärkeverteilung Lichststärkeverteilung Leuchtdichteverteilung Optischer Wirkungsgrad Optische Pfadanalyse Spektralanalyse.
Die Beleuchtungsstärke, die Lichtstärke sowie die Leuchtdichte sind die Hauptkriterien der zuvor beschriebenen optischen Systeme. Diese Auswertungen stellen den wesentlichen Bestandteil der optischen Simulation dar. So wie das optische System später mittels der Messtechnik analysiert wird,
Abb. 7.35. Simulierte Lichtstärkeverteilung in Candela eines Fahrtrichtungsanzeigers mit eingezeichneten ECE-Testpunkten (Werkfoto: opsira GmbH)
7.7 Literatur
349
geschieht die identische Prüfung schon in der optischen Simulation. Abbildung 7.35 zeigt das Simulationsmodell eines Fahrtrichtungsanzeigers zusammen mit der simulierten Lichtstärkeverteilung. Optische Pfadanalyse Die optische Pfadanalyse eröffnet Möglichkeiten, die in der Realität nicht mehr so einfach gegeben sind. Optische Simulationsprogramme, die dieses Verfahren beherrschen, speichern die Strahlen auf dem Weg durch das optische System. Nach dem Ray-Tracing können bestimmte Strahlen, auf die ein Kriterium zutrifft (z.B. gleicher Zielbereich und gleiche Strahlrichtung), ausgewählt werden. Der Strahlverlauf dieser Strahlen kann im Simulationsmodell angezeigt werden. Abbildung 7.36 zeigt das Simulationsmodell eines Lichtleiters, der in einem optischen Sensor eingesetzt wird. Es wird zuerst die Beleuchtungsstärke auf der Zielebene analysiert. Anschließend wird ein Bereich ausgewählt, der eine hohe Beleuchtungsstärke besitzt. Die Strahlen, die Energie in diesen Bereich bringen, werden überlagert mit dem Geometriemodell dargestellt. Mit diesem Analyseergebnis können nun gezielt Aktionen durchgeführt werden, um das optische System zu optimieren.
Abb. 7.36. Darstellung der optischen Pfadanalyse am Beispiel eines Lichtleiters. (Werkfoto: opsira GmbH)
7.7 Literatur Lange H (1992) Handbuch für Beleuchtung. Ecomed Verlag Landsberg am Lech Pedrotti F. L, Pedrotti L. S, Bausch W, Schmidt H (2002) Optik für Ingenieure. Springer, Berlin, Heidelberg Schmidt-Clausen H.-J (2003) Progress in Automobile Lighting PAL 2003. Utz Verlag, München
8 Fotovoltaik
Der fotovoltaische Effekt wurde 1839 von Becquerel beobachtet, der Silberelektroden in einem Elektrolyten bestrahlte und feststellte, dass dadurch ein Strom induziert wurde. 1954 gelang Chapin, Fuller und Pearson bei den Bell Laboratorien der Bau der ersten Solarzelle auf der Basis von einkristallinem Silicium mit einem Wirkungsgrad von 6%. Durch intensive Forschung und Entwicklung konnte der Wirkungsgrad innerhalb von 40 Jahren etwa vervierfacht werden.
8.1 Wirkungsweise der Solarzelle Die Solarzelle ist grundsätzlich eine Fotodiode mit großer Fläche (Abb. 8.1, Abschn. 1.6.3.1). Durch absorbierte Photonen gebildete Elektron-LochPaare werden infolge des eingebauten elektrischen Feldes getrennt. Dabei werden die Elektronen zum n-Kontakt, die Löcher zum p-Kontakt befördert (Abb. 1.69). Die Deckfläche der Solarzelle ist mit einem Gitter dünner Kontaktfinger versehen, die den erzeugten Fotostrom ableiten. Wegen des hohen Reflexionsgrades der Halbleiter muss die Oberfläche der Zelle stets mit einer reflexvermindernden Schicht versehen werden. Da der Absorptionskoeffizient beim indirekten Halbleiter Silicium nur langsam mit der Photonenenergie ansteigt (Abb. 1.68), benötigen Si-Solarzellen eine Dicke von 200 Pm bis 300 Pm. Solarzellen aus direkten Halbleitern wie beispielsweise GaAs kommen dagegen mit Dicken von 1 Pm bis 2 Pm aus. Im Kurzschlussbetrieb fließt durch die Solarzelle ein Fotostrom IK, der proportional ist zur eingestrahlten Leistung )e:
I K ~ )e
Ee A
(8.1)
Bei gegebener Bestrahlungsstärke Ee steigt der Strom und damit die produzierte elektrische Leistung proportional zur Fläche A.
352
8 Fotovoltaik
Abb. 8.1. Schematischer Aufbau einer Solarzelle
Im Leerlaufbetrieb ist an den Kontakten der idealen Solarzelle die Leerlaufspannung
· kT § I K · kT § I K ln¨¨ ln¨¨ ¸¸ 1¸¸ | e © IS ¹ e © IS ¹
UL
(8.2)
abgreifbar. k: Boltzmann-Konstante, T: absolute Temperatur, e: Elementarladung, IS: Sperr-Sättigungsstrom (Dunkelstrom). Zeichnet man – anders als in Abb. 1.71 – die Kennlinie der Solarzelle im ersten Quadranten, so gilt für die Strom-Spannungs-Kennlinie einer idealen Solarzelle (Abb. 8.2) I
ª § eU · º I K I S «exp¨ ¸ 1» . ¬ © kT ¹ ¼
(8.3)
Abb. 8.2. Strom-Spannungs-Kennlinie einer Si-Solarzelle bei Standard-Testbedingungen (STC). Zellengröße 15 cm x 15 cm.
8.1 Wirkungsweise der Solarzelle
353
Ist der Lastwiderstand im Außenkreis RL, dann definiert der Schnittpunkt der Widerstandsgeraden I = U/RL mit der Kennlinie den Arbeitspunkt. Der optimale Lastwiderstand liegt vor, wenn die Fläche des grauen Rechtecks maximal ist, nämlich
Pm
I mU m .
(8.4)
Der zugehörige Arbeitspunkt ist in Abb. 8.2 mit MPP (Maximum Power Point) gekennzeichnet. Da sich die Kennlinie mit der Sonneneinstrahlung verändert, muss für effektiven Betrieb der Lastwiderstand durch eine elektronische Schaltung so angepasst werden, dass stets im Punkt maximaler Leistung gearbeitet wird. Ein erster Schätzwert für den optimalen Lastwiderstand ist RL,opt |
UL . IK
(8.5)
Das Verhältnis der grau schraffierten Rechteckfläche in Abb. 8.2 zur größten denkbaren Rechteckfläche, gebildet durch den Kurzschlussstrom IK und die Leerlaufspannung UL, wird als Füllfaktor bezeichnet: FF
I mU m I KU L
Pm . I KU L
(8.6)
Der Füllfaktor ist ein Maß für die Güte der Zelle. Er beträgt 70% bis 85%. Beispiel: Wie groß ist der Füllfaktor der Zelle von Abb. 8.2?
Lösung: Aus dem Diagramm wird entnommen: UL = 0,6 V, Um = 0,49 V, IK = 7,6 A, Im = 6,7 A. Damit wird FF = 72%. Ƒ
Die Kennlinie einer realen Solarzelle weicht etwas von der idealen nach Gl. (8.3) ab. Abbildung 8.3 zeigt ein Ersatzschaltbild einer realen Solarzelle. Der Parallelwiderstand Rp berücksichtigt Leckströme über die Oberfläche sowie Punktdefekte im pn-Übergang. Der Serienwiderstand Rs entsteht durch den Ohm’schen Widerstand des Halbleitermaterials, den Widerstand der Kontaktfinger sowie den Übergangswiderstand an der HalbleiterMetall-Grenzfläche. Die Strom-Spannungs-Kennlinie wird jetzt I
ª § eU I Rs · º U I Rs . I K I S «exp¨ ¸ 1» Rp ¹ ¼ ¬ © kT
(8.7)
354
8 Fotovoltaik
Abb. 8.3. Ersatzschaltbild einer realen Solarzelle
Beide Widerstände verschlechtern den Füllfaktor (Abb. 8.4). Bei besonders niedrigen Parallelwiderständen reduziert sich die Leerlaufspannung und bei besonders hohen Serienwiderständen verringert sich der Kurzschlussstrom.
Abb. 8.4. Kennlinien realer Solarzellen
Die Eigenschaften der Solarzelle sind temperaturabhängig. Mit steigender Temperatur nimmt die Leerlaufspannung ab, während der Kurzschlussstrom leicht ansteigt. Tabelle 8.1 zeigt eine Zusammenstellung der Temperaturkoeffizienten. Tabelle 8.1. Temperaturkoeffizienten der Betriebsparameter von Silicium-Solarzellen Größe Leerlaufspannung UL Kurzschlussstrom IK elektrische Leistung Pm
Temperaturkoeffizient 0,5%/K 0,1%/K 0,44%/K
8.2 Wirkungsgrad
355
8.2 Wirkungsgrad Der Wirkungsgrad einer Solarzelle ist definiert als Verhältnis der maximal entnehmbaren elektrischen Leistung Pm zur eingestrahlten optischen Leistung ĭe:
Pm
K
)e
I KU L FF . Ee A
(8.8)
Trotz großer Anstrengungen ist der Wirkungsgrad handelsüblicher Solarzellen nicht höher als etwa 15%. Die wichtigsten Verlustmechanismen sind in Tabelle 8.2 zusammengestellt. Tabelle 8.2. Verluste in Si-Solarzellen optische Verluste Reflexion an der Oberfläche • 3% Abschattung durch Kontaktfinger • 3% Photonen mit überschüssiger Energie • 32% Photonen mit ungenügender Energie • 24%
elektrische Verluste Interne Zellenverluste infolge des Serienwiderstandes des Zellenmaterials und der Kontaktfinger • 1% Rekombination von Ladungsträgern in Basis und Emitter • 22%
Entscheidend für die optischen Verluste ist die in Abb. 8.5 dargestellte spektrale Bestrahlungsstärke Ee,O des Sonnenlichts. Außerhalb der Lufthülle (AM0, Air Mass Zero) entspricht die Verteilung etwa der eines schwarzen Strahlers mit T = 5.960 K (Abschn. 1.4.2). Die integrale Bestrahlungsstärke f
Ee
³ Ee,O dO 0
1353
W m2
wird als Solarkonstante bezeichnet. Je nach Einstrahlwinkel und Weglänge der Strahlen durch die Atmosphäre wird die Bestrahlungsstärke infolge von Absorption an Luftmolekülen verringert. Wird die Lufthülle senkrecht durchstrahlt, spricht man von AM1-Verhältnissen (Air Mass One). Bei AM2 legen die Strahlen den doppelten Weg zurück usw. Als Standard zur Messung des Wirkungsgrades wurde das AM1,5-Spektrum mit 2 Ee = 1000 W/m festgelegt (STC, Standard Test Conditions).
356
8 Fotovoltaik
Abb. 8.5. Spektrale Bestrahlungsstärke des Sonnenlichts außerhalb der Atmosphäre (AM0) und auf der Erdoberfläche (AM1,5). Og ist die Grenzwellenlänge für Absorption in Silicium
Der ganze Teil des Spektrums, der rechts von der Grenzwellenlänge Og liegt, wird nicht absorbiert, weil die Photonenenergie nicht ausreicht, um ein Elektron-Loch-Paar zu bilden. Strahlung mit O < Og wird zwar absorbiert, aber die überschüssige Energie Eph – Eg wird in der Solarzelle in Wärme verwandelt. Wenn also beispielsweise ein Photon mit der Energie Eph = 2 eV (O = 620 nm) in Si absorbiert wird, dann wird die Energie Eg = 1,11 eV elektrisch nutzbar, während 0,89 eV in Wärme umgesetzt wird. Stünde ein Halbleiter mit Eg = 2 eV zur Verfügung, dann könnte die Energie dieses Photons zu 100% elektrisch genutzt werden. Für maximale Ausnutzung des Sonnenspektrums sollte also für jede Photonenenergie der Halbleiter mit passender Energielücke zur Verfügung stehen. Dieser Idealfall kann angenähert werden durch Tandemzellen, wobei Halbleiter mit verschiedenen Energielücken hinter einander angeordnet werden. Theoretisch könnten solche Strukturen Wirkungsgrade von über 50% besitzen. Praktisch wurden beispielsweise bei der Kombination GaAs/Si 31% gemessen. Die größten elektrischen Verluste entstehen durch Rekombination der Ladungsträger an der Grenzfläche zwischen der p-dotierten Basis und der metallisierten Rückseite (Abb. 8.1). Die Rekombination wird stark reduziert, wenn der Halbleiter passiviert wird durch eine dünne Schicht aus SiO2
8.3 Technologie
357
oder SiN. Da diese Schicht elektrisch isoliert, müssen viele punktförmige Kontakte durch die Schicht hergestellt werden. Ein kleines Gebiet mit hoher p-Dotierung erzeugt ein elektrisches Feld, das die Elektronen von den Kontakten fern hält (local back surface field). In der Forschung sucht man nach preisgünstigen Verfahren, um diese Tausende von Punktkontakten an der Zellenrückseite herzustellen. Wenn dieses Problem gelöst ist, sollten SiSolarzellen in der Massenproduktion mit Wirkungsgraden von etwa 20% möglich sein. Der Wirkungsgrad einer Solarzelle steigt mit der eingestrahlten Leis2 tung. Wird der Wirkungsgrad bei Ee,0 =1.000 W/m (STC) mit K0 bezeichnet, so folgt mithilfe der Gln. (8.2) und (8.8) der Wirkungsgrad bei der Bestrahlungsstärke Ee zu
K K0
ln( Ee / Ee,0 ) eU L,0 /(k T ) eU L,0 /( k T )
.
(8.9)
Es kann also interessant sein, das Sonnenlicht beispielsweise mittels mikrooptischer Bauelemente zu konzentrieren, um einen höheren Wirkungsgrad bei gleichzeitig geringerem Materialverbrauch zu erhalten. Beispiel: Um welchen Bruchteil steigt der Wirkungsgrad einer Si-Solarzelle, wenn die Bestrahlungsstärke auf das Hundertfache gegenüber STC erhöht wird?
Lösung: Für Si ist UL,0 • 0, 6 V (Abb. 8.2), so dass für 300 K aus Gl. (8.9) folgt
K K0
ln(100) 23,2 23,2
K0 1,198 . Der Wirkungsgrad steigt also um 20%. Ƒ
Für den praktischen Gebrauch werden einzelne Zellen zu Modulen von 2 2 0,5 m bis 1 m Fläche zusammen geschaltet. Der Wirkungsgrad eines Moduls ist typischerweise um 1 bis 2 Prozentpunkte niedriger als der Wirkungsgrad einer durchschnittlichen Zelle.
8.3 Technologie Das nach wie vor wichtigste Material zum Bau von Solarzellen ist Silicium. Wegen der hohen Materialkosten wird intensiv nach Alternativen gesucht (Tabelle 8.3). Sowohl beim einkristallinen als auch beim polykristallinen Si werden durch Sägen aus Blöcken (ingots) die Wafer mit ungefähr
358
8 Fotovoltaik
300 Pm Dicke heraus gesägt. Dabei entsteht ein Abfall von etwa der Hälfte des Ausgangsmaterials. Ungefähr 50% der Kosten für ein Solarmodul entfallen auf die Herstellung der Wafer. Günstiger ist es, polykristallines Silicium in Form von Bändern direkt aus der Schmelze zu ziehen, obwohl der Wirkungsgrad dieses Folien-Siliciums wegen vermehrter Kristalldefekte etwas niedriger liegt. Dünnschichtzellen aus amorphem Silicium (direkter Halbleiter) benötigen wenig Material. Der Wirkungsgrad degradiert aber im Laufe der Zeit und kommt längst nicht an die Wirkungsgrade kristalliner Zellen heran. GaAs ist mit einer Energielücke von Eg = 1,4 eV optimal an das Sonnenspektrum angepasst. Die höchsten bislang erreichten Wirkungsgrade wurden daher mit GaAs-Zellen erreicht. Wegen der sehr hohen Herstellungskosten mit der Methode der Dünnschichtepitaxie werden GaAsZellen nur für Weltraumanwendungen eingesetzt. Interessante Alternativen zu Silicium für terrestrische Anwendungen sind Dünnschichtzellen aus CdTe und verschiedenen Chalkopyriten (Tabelle 8.3). CuInSe2 (Eg = 1,05 eV ) und CuInS2 (Eg = 1,55 eV ) werden als CIS-Zellen bezeichnet. Durch stöchiometrische Mischung mit CuGaSe2 (Eg = 1,68 eV ) und CuGaS2 (Eg = 2,3 eV ) können quintinäre Verbindungen Cu(In,Ga)(S,Se)2 – kurz CIGSSe – hergestellt werden, deren Energielücke optimal an das Sonnenspektrum angepasst werden kann. Tabelle 8.3. Wirkungsgrade verschiedener Solarzellen Material
Si Si Si Si GaAs CdTe Cu(In,Ga)(S,Se)2 CuInS2 CuGaSe2
Wirkungsgrad Labormuster Einkristallin polykristallin polykristallines Band amorphe Dünnschicht Einkristallin Dünnschicht Dünnschicht Dünnschicht Dünnschicht
23% 20% 13% bis 18% 13% 25% 16% 18,8% 12,7% 9,3%
Industrieelle Fertigung 16% bis 18% 14% bis 16% 11% bis 16% 7% bis 8% 9% bis 10% 9% bis 12%
8.4 Literatur
359
8.4 Literatur Brendel R (2003) Thin-Film Crystalline Silicon Solar Cells. Wiley-VCH, Berlin Goetzberger A, Voß B, Knobloch J (1994) Sonnenenergie: Photovoltaik. Teubner, Stuttgart Nelson J (2003) The Physics of Solar Cells. Imperial College Press, London Schmid J (1999) Photovoltaik, Strom aus der Sonne. Müller, Heidelberg Wagner A (1999) Photovoltaik Engineering. Springer, Berlin, Heidelberg Würfel P (2004) Physics of Solar Cells. Wiley-VCH, Weinheim
9 Optische Technologien in Medizin und Life Sciences
Einführung In den Anwendungen der optischen Technologien in Medizin und Life Sciences vermischt sich die traditionelle geometrische Optik mit den modernsten nichtlinearen optischen Verfahren für Diagnostik und Therapie. Die Diagnostik reicht von der Nanowelt, den Molekülen, über die mikroskopische Dimension zellulärer Strukturen bis zur makroskopischen Beurteilung von Gewebe oder ganzer Organe. Dabei wird auch der Blick ins Gewebe zur Erkennung veränderter Strukturen und Funktionen durch Licht als Informationsträger möglich. Dem therapeutischen Einsatz von Licht verhalf die Entwicklung des Lasers zum Durchbruch. Mit der Wahl der Wellenlänge von UV (Ultraviolett) bis IR (Infrarot) und der Einwirkzeit des Lichts können hierbei unterschiedliche Wirkungsmechanismen erzielt werden, die eine selektive Anwendung auf Zielstrukturen ermöglichen. Die Entwicklung und Anwendung optischer Technologien in Medizin und Life Sciences erfordert eine enge interdisziplinäre Zusammenarbeit von Medizinern, Naturwissenschaftlern und Ingenieuren. Die Anwendungen der optischen Technologien im Bereich Medizin und Life Sciences sind sehr vielfältig. In Abb. 9.1 sind wichtige Bereiche aufgeführt, die in den folgenden Abschnitten beschrieben werden.
Abb. 9.1. Wichtige Bereiche der optischen Technologien
9.1 Spektroskopie Grundsätzlich kann in der Spektroskopie unterschieden werden zwischen der Beobachtung des durch eine Probe hindurchgehenden Lichts (Absorp-
362
9 Optische Technologien in Medizin und Life Sciences
tionsspektroskopie) und der Beobachtung des von der Probe ausgesendeten Lichts (Lumineszenzspektroskopie). Zudem kommt der Spektroskopie molekularer Schwingungen eine wachsende Bedeutung zu. Abbildung. 9.2 zeigt eine Übersicht über die Verfahren der Spektroskopie.
Abb. 9.2. Übersicht über einige wesentliche Verfahren der Spektroskopie
Eine der möglichen Wechselwirkungen von Licht mit Molekülen im biologischen Gewebe besteht in der Absorption des Lichts und der darauf folgenden Abgabe der mit dem Licht verbundenen Energie (Abb. 9.3). Die Absorption des durch eine absorbierende Probe durchgehenden Lichtes wird durch das Lambert-Beer-Gesetz beschrieben: -2,303
I = I0 e
H(O) c x.
(9.1)
Hierbei bezeichnet I0 die einfallende Intensität, H ist der molare, dekadische Absorptionskoeffizient, c die Konzentration der absorbierenden Substanz und x bezeichnet die Länge des Lichtweges. Die Abhängigkeit des Absorptionskoeffizienten von der Wellenlänge O des eingestrahlten Lichtes macht sich die Absorptionspektroskopie zunutze.
Abb. 9.3. Absorptions- und Emissionsprozesse zwischen zwei elektronischen Zuständen eines Moleküls mit Schwingungsunterstruktur
9.1 Spektroskopie
363
Bei der Absorption eines Photons des ultravioletten, sichtbaren oder nahinfraroten Spektralbereichs wird ein Molekül vom Grundzustand (unten) in einen der angeregten Zustände (oben) gebracht. Die gewonnene Energie kann unter Emission eines Photons auf unterschiedliche Weise abgegeben werden. Sowohl der Grundzustand als auch die angeregten Zustände eines Moleküls weisen eine Unterstruktur auf, die den Schwingungen der einzelnen Atomkerne im Molekül um ihre Ruhelage entspricht. Die Energieachse in Abb. 9.3 ist nicht maßstäblich gezeichnet. Die Abstände zwischen den Schwingungsenergien sind typischerweise mindestens zwei Größenordnungen kleiner als zwischen Grundzustand und (elektronisch) angeregtem Zustand. Nach der Absorption eines Photons kann ein Molekül seine Anregungsenergie in Form von elektromagnetischer Strahlung abgeben, wie in Abb. 9.3 dargestellt. Wird nach der Absorption ein Photon derselben Energie emittiert, spricht man von elastischer Streuung am Molekül oder Rayleighstreuung. Im Gegensatz hierzu handelt es sich bei der Ramanstreuung, der Fluoreszenz und der Phosphoreszenz um inelastische Prozesse, bei welchen sich die Energie des absorbierten und des beobachteten, emittierten Photons voneinander unterscheiden. Fluoreszenz und Phosphoreszenz werden zusammen auch als Lumineszenz bezeichnet. 9.1.1 Absorptionsspektroskopie Biologische Materialien bestehen in der Regel zu großen Teilen aus Wasser. Deshalb ist die Untersuchung biologischer Proben eng mit den Absorptionseigenschaften von Wasser verknüpft. Der Absorptionskoeffizient von Wasser (Abb. 9.4) ist im grünen Spektralbereich des sichtbaren Lichts -1 kleiner als 0,001 cm und steigt mit zunehmender Wellenlänge stark an. Beispielsweise vergrößert sich der Absorptionskoeffizient bei der 10fachen Wellenlänge, also elektromagnetische Strahlung im mittleren Infrarot, um mehr als 5 Größenordnungen. Der Absorptionskoeffizient von Wasser bestimmt häufig die optischen Eigenschaften biologischer Materialien im Nahinfrarot (0,75 µm bis 2,5 µm) und Mittelinfrarot (2,5 µm bis 25 µm). Ein Beispiel für biomedizinisch wichtige Substanzen mit großer Absorption im sichtbaren Spektralbereich sind das in den roten Blutkörperchen enthaltene Oxyhämoglobin und Desoxyhämoglobin. Als Beispiel für Absorptionsmessungen im Bereich des mittleren Infrarots ist in Abb. 9.4 die Absorbanz eines getrockneten Films aus Serum eingefügt.
364
9 Optische Technologien in Medizin und Life Sciences
Abb. 9.4. Absorptionskoeffizienten ausgewählter Substanzen als Funktion der Wellenlänge (Absorptionsdaten von Hämoglobin mit freundlicher Genehmigung von S.L. Jacques, Oregon Medical Laser Center, Portland)
Auch Blut besteht größtenteils aus Wasser, jedoch dominiert das für den Sauerstofftransport verantwortliche Hämoglobin die Absorptionseigenschaften von Blut im sichtbaren Bereich. Hämoglobin liegt in verschiedenen Ausprägungen vor, insbesondere jedoch als Oxyhämoglobin oder Desoxyhämoglobin (Abb. 9.4). Die unterschiedlichen Absorptionsspektren der Hämoglobine werden in der in vitro-Diagnostik ausgenutzt, um mit Hilfe der Absorptionsspektroskopie den Hämoglobingehalt, die Konzentration von Hämoglobinderivaten sowie die Sauerstoffsättigung des Blutes zu bestimmen. Auch an lebendem Gewebe lässt sich Oxyhämoglobin von Desoxyhämoglobin unterscheiden. Allerdings wird beispielsweise das durch einen Finger transmittierte Licht nicht nur von Hämoglobin, sondern auch von anderen Absorbern sowie durch die Streuung an zellulären Strukturen beeinflusst. Der in vivo-Anwendung der Absorptionsspektroskopie gelang der Durchbruch zur breiten Anwendung erst, als man die Messung mit dem Pulsschlag synchronisierte (Pulsoxymetrie). Da venöses Blut synchron mit dem Herzschlag pulsiert, lässt sich der Hämoglobingehalt und die Sauerstoffsättigung des pulsierenden Blutes sehr gut von mit Hämoglobin unkorrelierten Signalen trennen, so dass die untergrundfreie Quantifizierung am lebenden Gewebe möglich ist. 9.1.2 Fluoreszenzspektroskopie Ist ein Molekül in einen elektronisch angeregten Zustand gebracht worden, kann es durch Aussendung eines Fluoreszenzphotons wieder in seinen
9.1 Spektroskopie
365
Grundzustand zurückkehren (Abb. 9.3). Die Aussendung eines Fluoreszenzphotons unterliegt einem statistischen Prozess und geschieht typischerweise – über viele solcher Prozesse gemittelt – nach einer Lebensdauer von einigen Nanosekunden. Abbildung 9.5 zeigt schematisch den Aufbau eines Fluoreszenzspektrometers und das Ergebnis der Messung der intrinsischen Fluoreszenz von Humanserum. Die Wellenlänge des Anregungslichts kann in dem hier gezeigten Aufbau mit einem Monochromator eingestellt werden. Das senkrecht zur Einstrahlrichtung emittierte Fluoreszenzlicht wird dann mit Hilfe eines zweiten Monochromators in seine spektralen Komponenten zerlegt und mittels des Detektors als Funktion der Wellenlänge aufgezeichnet. Diese Messung kann für verschiedene Anregungswellenlängen wiederholt werden (z.B. von 310 nm bis 450 nm für die in Abb. 9.5 dargestellte Messung). In dem dargestellten Beispiel erkennt man ein für biomedizinische Proben typisches Verhalten: mit größer werdender Anregungswellenlänge nimmt die Fluoreszenz in der Regel ab.
Abb. 9.5. Fluoreszenzspektrometer und Messbeispiel. Die Zahlen an den einzelnen Spektren bezeichnen die Wellenlänge des Anregungslichtes in nm (Abbildung von D. Rohleder, Dissertation, Universität Würzburg/Roche Diagnostics GmbH, mit freundlicher Genehmigung der Jobin Yvon GmbH).
Das Licht der gewünschten Anregungswellenlänge wird aus dem Licht einer breitbandigen Quelle mit Hilfe eines ersten Monochromators selektiert. Das senkrecht zum Anregungslicht emittierte Fluoreszenzlicht wird in einem zweiten Monochromator spektral zerlegt und anschließend detektiert. Das Messbeispiel zeigt die Fluoreszenzspektren von Humanserum als Funktion der Wellenlänge des emittierten Lichtes (Abb. 9.5). Die quantitative Bestimmung der Fluoreszenz von biologischen Materialien wird bezüglich der Lage der Absorptions- und/oder Emissionsbanden sowie der Intensität des Fluoreszenzsignals von der lokalen Umgebung der fluo-
366
9 Optische Technologien in Medizin und Life Sciences
rophoreszierenden Moleküle beeinflusst. Darüber hinaus wird das Fluoreszenzlicht in der Regel nicht direkt am Entstehungsort beobachtet, sondern muss häufig durch das biologische Material wandern und kann hierbei selbst absorbiert oder gestreut werden. Daher kommen anstelle der direkten Beobachtung der Fluoreszenzintensität häufig weitere Detektionsmethoden zum Einsatz, wie beispielsweise die zeitaufgelöste Fluoreszenzspektroskopie. Hierbei wird ausgenutzt, dass verschiedenartige Fluoreszenzmoleküle unterschiedliche Lebensdauern aufweisen. Zeitaufgelöste Messungen des exponentiellen Abklingens des Fluoreszenzlichtes können einerseits bei Anregung mit Kurzpulslasern oder Blitzlampen durchgeführt werden, wobei der Zeitunterschied zwischen Anregung und Fluoreszenz betrachtet wird. Andererseits bedient sich die zeitaufgelöste Fluoreszenzspektroskopie auch des Phasenmodulationsverfahrens, bei welchem die Intensität des Anregungslichtes moduliert wird. Das ausgesendete Fluoreszenzlicht folgt der Modulation der Anregung mit einem Zeitversatz, der durch die Lebensdauer bestimmt ist. Dieser Zeitversatz äußert sich in einer Phasenverschiebung zwischen dem Anregungslicht und dem beobachteten Fluoreszenzsignal. Einige fluoreszierende Stoffe kommen von Natur aus in biologischen Materialien vor und werden deshalb intrinsische Fluorophore genannt. Abbildung 9.6 zeigt typische Spektralbereiche für die Anregung und Fluoreszenzemission von Kollagen, Elastin, Flavin, NADH, Porphyrin und Tryptophan. Die Maxima der Anregung liegen typischerweise bei Wellenlängen im ultravioletten Spektralbereich und die Emissionsmaxima befinden sich bei einer Wellenlänge im Bereich von 300 nm bis 700 nm. Die Autofluoreszenzeigenschaften ändern sich bei Erkrankung des Gewebes, was sowohl in vitro (z.B. an Papanicolaou-Abstrichen zur Früherkennung von Gebärmutterhalskrebs) als auch in vivo (z.B. im Zusammenhang mit der Erkennung von Karies) untersucht wurde. Häufig kommen für die in
Abb. 9.6. Absorptionsbanden (ausgefüllte Flächen) und Emissionsbanden (schraffierte Flächen) der häufigsten intrinsischen Fluorophore
9.1 Spektroskopie
367
vivo-Anwendung Lichtleitfasern bei der Detektion der Gewebsfluoreszenz zum Einsatz. Ähnliches gilt für die Detektion von Fluoreszenzlicht, welches von Molekülen stammt, die für den spezifischen Nachweis zu untersuchender Substanzen in die biologische Probe eingebracht wurden. Zu diesen Fluoreszenzmarkern zählen insbesondere Fluoreszin, Cyanin und Rhodamin. Auch das natürlich vorkommende „grün fluoreszierende Protein“ (GFP) steht nunmehr zusammen mit seinen gentechnisch modifizierten Formen zur Verfügung, um beispielsweise subzellulärer Organellen in lebendem Gewebe sichtbar zu machen. Die Beobachtung exogener Fluoreszenzmarker spielt beispielsweise bei der Genanalyse eine entscheidende Rolle. Mit der Mikroarray-Technologie ist es möglich, die parallele Expression von Tausenden von Genfragmenten in einem einzigen Experiment herzustellen. Mikroarrays bestehen aus einer Vielzahl von Mikrometer-großen Bereichen (spots), in welchen vorher festgelegte Nukleinsäuresequenzen als Target auf einem Substratmaterial aufgebracht werden. Wird die zu untersuchende Probe, die ihrerseits aus fluoreszenzmarkierten Nukleinsäurebruchstücken besteht, auf das Mikroarray aufgebracht, so können sich die Probenbruchstücke mit den aufgebrachten Sequenzen nur dann verbinden, wenn die Abfolge der Nukleinsäuren von Probe und Target zueinander passt. Identifiziert man nun diejenigen Spots, auf denen Probe und Target eine passende Nukleinsäureabfolge aufweisen, können – da die Nukleinsäuresequenz des jeweiligen Targetspots bekannt ist – Rückschlüsse auf die Sequenz der Probe gezogen werden. Die Identifikation findet mit Hilfe von exogenen Fluoreszenzmarkern statt, wie beispielsweise Cyanine Cy3 und Cy5, deren Absorptionsund Emissionsspektren in Abb. 9.7 dargestellt sind.
Abb. 9.7. Absorptionsspektrum (A) und Emissionsspektrum (E) der häufig verwendeten extrinsischen Fluorophore Cy3 (durchgezogene Linien) und Cy5 (gestrichelte Linien)
368
9 Optische Technologien in Medizin und Life Sciences
Die durch die Spektren von Cy3 und Cy5 verständliche grüne und rote Färbung der Spots wird als Standardmarkierung für Abbildungen von Mikroarrays eingesetzt. Exogene Fluorophore finden mit der fotodynamischen Therapie auch Anwendungen außerhalb der Diagnostik (Abschn. 9.5). 9.1.3 Molekülschwingungsspektroskopie Die einzelnen Atomkerne in einem Molekül bewegen sich relativ zueinander um die jeweilige Gleichgewichtslage. Typische Schwingungsfrequen14 zen liegen bei bis zu 10 Hz, und die elektromagnetische Strahlung befindet sich im mittleren Infrarotbereich (Wellenlängen: 2,5 µm bis 25 µm). Zur Charakterisierung der Strahlung wird die Wellenzahl angegeben, die zur Schwingungsenergie proportional ist (Wellenzahl = 1/Wellenlänge; -1 Einheit: cm ). Aufgrund der Vielzahl der Kernbausteine und -bindungen in biologisch relevanten Molekülen entsteht eine Vielzahl von Schwingungsmöglichkeiten, deren Beobachtung mit Hilfe der Spektroskopie für jedes Molekül sehr charakteristische Signaturen aufweist.
Abb. 9.8. Molekulare Schwingungen in gefalteten Polypeptidketten
Abbildung 9.8 zeigt die molekularen Schwingungsmoden des für biochemische Vorgänge wichtigen Polypeptidgerüstes aus Kohlenstoff (C) , Sauerstoff (O), Stickstoff (N) und den restlichen Elementen der Peptidkette (R, R’). Die gezeigten Schwingungsformen werden in gefalteten Poly-1 -1 peptidketten bei Wellenzahlen von 1.680 cm (Amid I), 1.530 cm (Amid -1 II) und etwa 1.300 cm (Amid III) beobachtet. Da jedoch die meisten biologischen und medizinischen Proben zu wesentlichen Teilen aus Wasser bestehen und da, wie in Abb. 9.4 gezeigt, Wasser im mittleren Infrarotbereich sehr stark absorbiert, ist die unmittelbare Beobachtung der Vibrationen schwierig und man muss sich eines Tricks bedienen, um dennoch die Schwingungen der zu untersuchenden organischen Moleküle sichtbar zu machen. Eine Möglichkeit ist, die Probe zu trocknen. Das in Abb. 9.4 im Mittelinfrarotbereich eingefügte Spektrum zeigt die Absorbanz (d.h. den Logarithmus der Absorption) für einen dünnen Film aus getrocknetem Humanserum. Deutlich zu erkennen sind die
9.1 Spektroskopie
369
Abb. 9.9. Messgenauigkeit der (•) Mittelinfrarot- und (') Ramanspektroskopie zur quantitativen Bestimmung diagnostischer Parameter in Serum. RMSEP bezeichnet die Wurzel des mittleren quadratischen Vorhersagefehlers. Die gestrichelte Linie markiert einen relativen RMSEP von 10% -1
betonten Amid I- und Amid II-Absorptionsbanden bei 6,0 µm (1.680 cm ) -1 und 6,5 µm (1.530 cm ) sowie der C-H-Streckschwingungsbereich um -1 3,0 µm (3.300 cm ). Eine Alternative zur Trocknung bietet sich durch die zu Beginn des Abschnitts erwähnte Ramanspektroskopie: Strahlt man Licht des sichtbaren oder nahen Infrarotbereichs in eine biologische Probe, so wird dieses Licht wesentlich weniger durch Wasser absorbiert, als es im mittleren Infrarotbereich der Fall wäre. Umgekehrt kann das Licht somit tief in die Probe eindringen, bevor es absorbiert wird. Nach der Absorption unterliegt ein Teil des inelastisch gestreuten Lichtes dem Ramaneffekt. Es lässt sich zeigen, dass der Ramaneffekt sogar auftreten kann, wenn das Licht nicht im eigentlichen Sinn absorbiert, sondern ohne Absorption inelastisch gestreut wird. Dies ist insbesondere der Fall, wenn die Energie des eingestrahlten Lichtes nicht dem Energieunterschied zwischen Grundzustand und elektronisch angeregtem Zustand des Moleküls entspricht. Wie in Abb. 9.3 exemplarisch dargestellt, entspricht die Energiedifferenz zwischen eingestrahltem Licht und Raman-gestreutem Licht gerade der Energie der molekularen Schwingung. Obgleich der Ramaneffekt sehr selten auftritt, gelang es bereits, quantitative Analysen von Serum (Abb. 9.9), Plasma und Blut oder auch die Differenzierung zwischen erkranktem und gesundem Gewebe in Gewebsschnitten durchzuführen. Auch die Unterscheidung pathogener Bakterien auf der Basis der Ramanspektroskopie ist möglich.
370
9 Optische Technologien in Medizin und Life Sciences
Eine dritte Möglichkeit zur Spektroskopie molekularer Schwingungen ergibt sich aus der Tatsache, dass eine Molekülschwingung auch bei Frequenzen beobachtet werden kann, die ganzzahlige Vielfache der Grundschwingung sind. Dies erlaubt eine Detektion im Nahinfrarotbereich, in welchem der störende Einfluss von Wasser stark reduziert ist. Ebenso können sich verschiedene Schwingungen eines Moleküls durchmischen und das Auftreten von Summenfrequenzen verursachen, die dann anstelle des Mittelinfrarotbereiches ebenso im nahen Infrarotbereich beobachtet werden können. Die Nahinfrarotspektroskopie hat sich inzwischen auch als robustes, weit verbreitetes Werkzeug der biochemischen Prozesstechnik etabliert, beispielsweise zur Überwachung der Fermentation. Im Bereich der Life Sciences findet sich die Nahinfrarotspektroskopie beispielsweise in der pharmazeutischen Industrie und der Nahrungsmittelindustrie. 9.1.4 Beispiele weiterer spektroskopischer Methoden Aus der großen Zahl weiterer spektroskopischer Methoden sowie Variationen der bereits besprochenen Verfahren sind die Bio- und Chemilumineszenz sowie die Energietransferspektroskopie zu nennen. In Ergänzung der in Abb. 9.3 dargestellten Anregung eines Moleküls durch ein Photon, kann die Anregung auch auf anderem Wege stattfinden. Bei der Chemilumineszenz wird eine Substanz wie Luminol oder Acridiniumester durch einen Katalysator oxidiert, wobei Lumineszenzlicht entsteht. Die Biolumineszenz nutzt einen energieliefernden, enzymatischen Prozess zur Erzeugung der Lumineszenz. Ein bekanntes Beispiel hierfür ist das Luziferin, welches mit Hilfe einer enzymatischen Reaktion und durch Katalyse der Luziferase zu einem angeregten Enzymkomplex oxidiert wird, der unter Lichtemission zerfällt. Diesen Prozess nutzen Glühwürmchen zur Lichterzeugung. Auch die in Abb. 9.3 dargestellte Energieabgabe kann modifiziert werden, beispielsweise durch den Energieaustausch eng benachbarter Moleküle. Befinden sich zwei Moleküle in unmittelbarer Nähe zueinander, so kann aufgrund der Dipol-Dipol-Wechselwirkung die Anregungsenergie strahlungslos von einem auf das andere Molekül übertragen werden. Dieser Prozess, der sich Fluoreszenz-Resonanz-Energie-Transfer (FRET) nennt, hängt von der energetischen Struktur der beiden Moleküle und äußerst stark von -6 der Entfernung r ab: die Transferrate ist proportional zu r . Dies wiederum kann für die Untersuchung von Wechselwirkungen und Abständen zwischen Molekülen, zum Studium von Veränderungen einer Molekülstruktur oder sogar zum Nachweis von Ionenkonzentrationen benutzt werden. Von den bereits genannten Fluorophoren kommen insbesondere Cy3/FITC (Fluoreszin-Isozyanat) sowie GFP/Rhodamin als FRET-Paare zum Einsatz.
9.2 Streuung von Licht
371
9.2 Streuung von Licht Neben der im Abschnitt 9.1 behandelten Absorption und inelastischen Streuung von Licht, spielt die elastische Streuung in biologischer Materie eine große Rolle. Abbildung 9.10 zeigt eine Übersicht über die einzelnen Verfahren, die der Streuung zugrunde liegen.
Abb. 9.10. Übersicht über die Technologien, die auf Streuung beruhen
Ähnlich wie im Falle der Absorption wird das Streuverhalten der zu untersuchenden Probe entweder durch Vermessung des durch die Probe hindurchtretenden Lichtes (Beispiel: Turbidimetrie) oder durch Beobachtung des elastischen gestreuten Lichtes (Beispiele: Nephelometrie, Remissionsfotometrie, optische Kohärenztomografie) ermöglicht.
Abb. 9.11. Reduzierter Streukoeffizient von Haut für den Bereich der MieStreuung und der Rayleighstreuung (Abbildung der experimentellen Datenpunkte und der aus der Theorie folgenden Linien mit freundlicher Genehmigung von S.L. Jacques, Oregon Medical Laser Center, Portland)
372
9 Optische Technologien in Medizin und Life Sciences
Der analog zum Absorptionskoeffizienten definierte Streukoeffizient µs charakterisiert das Streuvermögen einer Probe, und geht in ein exponentielles Gesetz analog zu Gl. (9.1) ein. Allerdings ist die Streuung insbesondere in Gewebe nicht in alle Richtungen gleich stark. Dies beschreibt der Anisotropiefaktor g. Der reduzierte Streukoeffizient µs’ = µs (1-g)
(9.2)
berücksichtigt diese Anisotropie und ist am besten geeignet, um die Streuung in stark streuender Materie zu beschreiben. Die elastische Streuung von Licht hängt primär von dem Verhältnis zwischen Größe d der streuenden Partikel und der Lichtwellenlänge O ab, wie anhand der in Abb. 9.11 gezeigten Daten deutlich wird: Die streuenden Substanzen der Zellmembran haben eine Ausdehnung im Bereich von 0,01 µm, so dass für sichtbares Licht (O » d) die Rayleighstreuung dominiert, während hingegen beispielsweise die Streuung an Mitochondrien (d ~ 1µm) erst im Bereich des nahen Infrarot (O ~ d) am besten durch die von Mie entwickelte Theorie beschrieben wird (Mie-Streuung). Im Folgenden werden Beispiele genannt für die Rückstreuung in sehr dichten Medien (Teststreifen), die durch die Mie-Theorie beschriebene Streuung an Zellen und schließlich noch die kohärente Rückstreuung in der Haut mit Hilfe der Kohärenztomografie. 9.2.1 Remissionsfotometrie zur Bestimmung von Glucose Weltweit sind mehr als 180 Mio. Menschen an Diabetes mellitus erkrankt und der regelmäßigen Bestimmung der Konzentration von Glucose im Blut kommt bei dieser Patientengruppe eine besondere Bedeutung zu. Für die Messung wird aus der Fingerbeere etwa 1µl Kapillarblut gewonnen und auf einen Teststreifen aufgebracht. Bei den fotometrischen Systemen zur Bestimmung der Blutglucose verursacht das auf dem Teststreifen befindliche Reagenz einen Farbumschlag, der von der Glucosekonzentration der Probe abhängt. Bei der optischen Messung wird die Vielfachstreuung des Lichts entlang seines Weges in der Reagenzschicht genutzt. Kubelka und Munk untersuchten das Problem stark streuender und gleichzeitig absorbierender Medien und fanden heraus, dass das Verhältnis zwischen absorbiertem Licht und dem Streukoeffizienten S mit dem diffus reflektierten Licht folgendermaßen zusammenhängt (Kubelka-Munk Gesetz): 2,303H c / S = (1-R)² / (2R),
(9.3)
wobei R das diffuse Reflexionsvermögen einer unendlich dicken Probe, H den Absorptionskoeffizienten und c die Konzentration des Absorbers be-
9.2 Streuung von Licht
373
zeichnen. Da im Falle des Glucoseteststreifens das Produkt Hc von der Einfärbung des Teststreifens und damit von der Konzentration der Glucose im Blut abhängig ist, lässt sich mit dieser Beziehung umgekehrt die Glucosekonzentration aus der Messung des remittierten Lichtes bestimmen. 9.2.2 Durchflusszytometrie Mit typischen Durchmessern von einigen Mikrometern liegen Zellen für sichtbares Licht noch im Bereich der Mie-Streuung, bei welcher die Streuintensität und die Winkelverteilung des Streulichtes in der durch Mie beschriebenen Weise von der Größe und Struktur der Streukörper abhängen. Das Streulicht kann als Signalabfall im transmittierten Licht gemessen werden (Turbidimetrie) oder unter verschiedenen Streuwinkeln beobachtet werden (Nephelometrie). Diese Verfahren macht man sich in der Durchflusszytometrie zunutze. Hierbei werden die zu untersuchenden Zellen in Lösung durch eine enge Glaskapillare gespült, in welcher die Wechselwirkung mit eingestrahltem Laserlicht stattfindet. Die Streulichtmessung erlaubt die automatisierte Charakterisierung der weißen Blutkörperchen (Leukozyten), welche der körpereigenen Abwehr von Fremdstoffen und Krankheitserregern dienen und beim Entzündungsprozess beteiligt sind. Die Leukozyten lassen sich unterteilen in Lymphozyten (Durchmesser: 7 µm bis 12 µm), in Granulozyten (10 µm bis 17 µm) und in Monozyten (12 µm bis 20 µm). Aufgrund der überlappenden Größenverhältnisse der Zellen wird jedoch die Streulichtmessung in Durchflusszytometern in der Regel durch weitere Messmethoden ergänzt. Für den Fall der roten Blutkörperchen (Erythrozyten) ermöglicht die zusätzliche Absorptionsspektroskopie zudem die Bestimmung des zellulären Hämoglobingehalts, was für die Erkennung der hyper- und hypochromen Anämie wesentlich ist. Selbst bei der Diagnostik und Überwachung der HIV-Infektion (AIDS) spielt die Streulichtmessung der Durchflußzytometrie eine wesentliche Rolle. Hierbei werden mit Antikörpern beschichtete Latexkugeln der Blutprobe beigemischt, welche sich spezifisch an Antigene der Außenfläche von T-Helferzellen (einer im Zusammenhang mit HIV wesentlichen Unterart der Leukozyten) binden. Die mit Latexkugeln verbundenen T-Helferzellen lassen sich dann beispielsweise aufgrund ihrer veränderten Streucharakteristik von T-Suppressorzellen und anderen Leukozyten unterscheiden.
374
9 Optische Technologien in Medizin und Life Sciences
9.2.3 Optische Kohärenztomographie Grundlage der optischen Kohärenztomographie (OCT) bildet das in Abschn. 9.1 beschriebene Michelson-Interferometer unter Verwendung einer Lichtquelle geringer Kohärenz (Abb. 9.12).
Abb. 9.12. Schematische Darstellung des OCT-Prinzips
Licht aus einer superluminiszenten Leuchtdiode (Kohärenzlänge: ~10 µm) wird durch einen 2:2 Koppler in zwei optische Arme aufgeteilt, wovon einer zur Probe führt und der andere zu einem Referenzspiegel (Abb. 9.12). Das von der Probe bzw. dem Referenzspiegel reflektierte Licht wird im 2:2 Koppler wieder vereint. Ein optisches Interferenzsignal kann nur beobachtet werden, wenn die Längendifferenz der beiden optischen Arme nicht wesentlich größer ist als die Kohärenzlänge des Lichtes. Somit bestimmen die Position des Referenzspiegels und die Kohärenzlänge, aus welchem Tiefenbereich innerhalb der Probe das Licht des Probenkanals für die Beobachtung der Interferenz kommen muss. Diese tiefenabhängige Streulichtmessung kann durch ein laterales Verfahren für 2-dimensionale Schnittbilder (Abb. 9.13) oder sogar für die
Abb. 9.13. Mittels OCT gewonnener Tiefenschnitt durch die Haut. Die Spiralen sind Schweißdrüsen (S), die sich von der Lederhaut (C: corium) in die Oberhaut (E: epidermis) fortsetzen. Die Grenzschicht zwischen Epidermis und Dermis ist durch zapfenartige Ausziehungen (P: dermale Papillen) charakterisiert (mit freundlicher Genehmigung der ISIS Optronics GmbH)
9.3 Optische Mikroskopie
375
Erzeugung dreidimensionaler, tomografischer Information verwendet werden. Aufgrund der im Vergleich zur konfokalen Mikroskopie vergrößerten Eindringtiefe und der in Relation zum Ultraschall besseren Ortsauflösung, findet die OCT-Technik Einsatz in der morphologischen Untersuchung von Gewebe. Da die konstruktive Interferenz vom Lichtweg und nicht vom geometrischen Wegunterschied abhängt, lässt sich auch auf den lokalen Brechungsindex im Gewebe schließen. Weiterentwicklungen befassen sich mit der Messung des Blutflusses unter Ausnutzung des Dopplereffekts.
9.3 Optische Mikroskopie 9.3.1 Übersicht Die optische Mikroskopie ist ein unerlässliches Hilfsmittel zur Erkennung kleinster Strukturen in Zellen und Gewebe sowie zur Untersuchung von deren Dynamik und Funktion. Abbildung 9.14 zeigt einen Überblick über die Verfahren der Mikroskopie.
Abb. 9.14. Übersicht über die Verfahren der Mikroskopie
Bei der Mikroskopie unterscheidet man im Wesentlichen x die Durchlichtmikroskopie, bei der die Transmission von Licht an dünnen Proben (z.B. Zellkulturen oder Biopsien) gemessen wird und x die Auflichtmikroskopie, bei der einerseits die Reflexion von Licht an dickeren Gewebeproben, andererseits die Fluoreszenz der Proben untersucht wird.
376
9 Optische Technologien in Medizin und Life Sciences
In beiden Fällen ergibt sich der in Abb. 9.15 (links) skizzierte Strahlverlauf für die Abbildung des Objekts O in die (Zwischen-) Bildebene I mit Hilfe des Objektivs Obj. Hierbei sind wiederum zwei Fälle zu unterscheiden. x Bei der Weitfeldmikroskopie wird das gesamte Objekt O gleichzeitig beleuchtet und das Bild auf einem Detektor (z.B. CCD-Kamera) in der Ebene I gemessen oder mit dem Auge über ein Okular Oc beobachtet. Dieses Okular bildet das Zwischenbild ins Unendliche ab, und die Augenlinse des Beobachters übernimmt die Fokussierung auf die Netzhaut. x Bei der Laser-Scanning-Mikroskopie wird ein fokussierter Laserstrahl über die Probe gescannt, und die jeweilige Bildinformation in einem Bildspeicher abgelegt. Die Messung erfolgt in diesem Fall mit einem hochempfindlichen Punktdetektor (z.B. Fotomultipler), dem oft eine feine Lochblende (Pinhole, in der Bildebene I) vorgeschaltet ist. 9.3.2 Auflösung, Schärfentiefe und förderliche Vergrößerung Die mikroskopische Auflösung wird durch den Öffnungswinkel V bzw. die numerische Apertur AN = n sinV des Objektivs (n: Brechzahl des Mediums zwischen Objekt und Objektiv) bestimmt und lässt sich am Einfachsten über die Interferenz an einem optischen Gitter herleiten. Unter der Bedingung, dass mindestens die 0. und die 1. Interferenzordnung zur Bildentstehung beitragen müssen, und der Ablenkwinkel für die 1. Ordnung nicht größer als der Öffnungswinkel V sein darf, ergibt sich für die LichtWellenlänge O eine auflösbare minimale Objektgröße von 'x = O/AN, wenn die Probe mit parallelem Licht beleuchtet wird. Erfolgt die Beleuchtung mit einem Lichtkegel der numerischen Apertur A d AN, so addieren sich die numerischen Aperturen A und AN, und es ergibt sich eine Auflösung 'x t O / 2AN. Die numerische Apertur bestimmt ebenfalls die laterale Auflösung 'x bei der Laser-Scanning-Mikroskopie sowie die axiale Auflösung bzw. Schärfentiefe 'z entsprechend den in Tabelle 9.1 angegebenen Formeln. Ein wesentlicher Unterschied besteht allerdings darin, dass bei der Laser-Scanning-Mikroskopie nur die in der Schärfenebene liegenden Objektpunkte abgebildet werden, während bei der Weitfeldmikroskopie auch die außerhalb der Schärfenebene liegenden Objektpunkte zur Abbildung beitragen und damit eine Unschärfe verursachen. Mikroskopobjektive haben üblicherweise eine Vergrößerung m zwischen 2,5u und 100u und sind für den Gebrauch in Luft (Brechzahl n = 1) oder den Immersionsflüssigkeiten Wasser (n = 1,33) bzw. Öl (n = 1,5) ausgelegt. Um die laterale Auflösung des Objektivs bei der Videomikroskopie (Detektor in der Bildebene I) zu nutzen, darf der Minimalabstand zweier Bildelemente nicht größer sein als m 'x/2, was bei vielen hochauf-
9.3 Optische Mikroskopie
377
lösenden Kameras (mit ca. 800u600 Bildelementen oder mehr) der Fall ist. Für die visuelle Beobachtung sollte die Gesamtvergrößerung (Objektiv u Okular) den Wert V = 500 AN bis 1.000 AN nicht überschreiten, damit der Minimalabstand 'x auch im Auge noch erkennbar ist. V wird daher als die förderliche Vergrößerung des Mikroskops bezeichnet. Tabelle 9.1. Laterale ('x) und axiale ('z) Auflösung bei Weitfeld- und LaserScanning-Mikroskopie (LSM). Bei LSM wird nach Größe des Pinholes (Ph) im Vergleich zur Airy-Einheit (1 AE = 1,22uO/AN) unterschieden Weitfeldmikr. 'x 'z
0,51uOem/AN nuOem/AN²
LSM (Ph t 1AE) 0,51uOex/AN 0,88uOex/[n-(n²-AN²)1/2]
LSM (Ph d 0.25AE) 0,37uOeff/AN 0,64uOeff/[n-(n²-AN²)1/2]
Oex = Anregungswellenlänge, Oem = Emissionswellenlänge, Oeff = effektive Wellenlänge (Oex < Oeff < Oem).
9.3.3 Köhler’sche Beleuchtung und Kontrastverstärkung Wie in Abb. 9.15 für den Fall der Durchlichtmikroskopie aufgezeigt ist, unterscheidet man generell zwischen dem Objektstrahl (links) und dem Pupillenstrahl (rechts). Der Objektstrahl umfasst neben der Abbildung des Objekts O in die Zwischenbildebene I und die Netzhaut des Auges E die Köhler’sche Beleuchtung, bei der jeder Punkt einer Lichtquelle L zur homogenen Ausleuchtung des Objekts beiträgt. L beleuchtet zunächst gleichmäßig die Leuchtfeldblende Fd, die ihrerseits mit dem Kondensor C in die Objektebene abgebildet wird. Der Pupillenstrahl weist die Lampe als Eintrittspupille aus, die zunächst in die Aperturblende des Kondensors (AC), anschließend in die Aperturblende des Objektivs (AObj, in der hinteren Objektiv-Brennebene) und schließlich in die Augenpupille abgebildet wird. Der Pupillenstrahl durchsetzt hierbei die Probe als Parallelstrahl, was wiederum bei der Phasenkontrastmikroskopie ausgenutzt wird. Bei diesem Kontrast verstärkenden Mikroskopieverfahren kann man das die Probe direkt durchsetzende Licht unabhängig von dem durch Interferenz abgelenkten Licht beeinflussen, indem man das Objekt mit einer ringförmigen Blende beleuchtet und das nicht abgelenkte Licht in der Aperturblendenebene AObj mit einem sogenannten Phasenring abschwächt und in seiner Phase verschiebt. Bei der Zusammenführung der einzelnen Interferenzordnungen in der Zwischenbildebene kann man so Phasenstrukturen eines Objekts sichtbar machen, die man im Amplitudenbild nicht sehen würde.
378
9 Optische Technologien in Medizin und Life Sciences
Abb. 9.15. Objektstrahl (links) und Pupillenstrahl (rechts) eines Mikroskops bei Köhler’scher Beleuchtung
Eine weitere Möglichkeit, Phasenstrukturen eines Objekts zu visualisieren, bietet die Interferenzkontrastmikroskopie, bei der eine anregende (linear polarisierte) Lichtwelle in zwei Teilwellen mit zueinander senkrechter Polarisation zerlegt wird, welche die Probe mit einem kleinen räumlichen Versatz v d 'x durchsetzen. Wird hierbei die Phase beider Teilwellen gleichermaßen beeinflusst, so setzen diese sich im Zwischenbild wiederum zu einer linear polarisierten Lichtwelle zusammen und führen zu einer Auslöschung hinter einem hierzu gekreuzten Analysator. Erfahren jedoch beide Teilwellen im Objekt O unterschiedliche Phasenverschiebungen, so ist die resultierende Lichtwelle elliptisch polarisiert und durchtritt den Analysator teilweise. Die hierbei gemessene Phasenstruktur eines Objekts kann besonders kontrastreich dargestellt werden, wenn man statt der visuellen Beobachtung eine Kamera mit einstellbarem Offset (zur Unterdrückung des Gleichlichtanteils) und Verstärkung benutzt.
9.3 Optische Mikroskopie
379
9.3.4 Fluoreszenzmikroskopie Das in der Biologie und Medizin am häufigsten benutzte Mikroskopieverfahren ist die Fluoreszenzmikroskopie. Damit können neben intrinsischen Fluorophoren von Zellen und Gewebe zahlreiche spezifische Marker für Zellorganellen, pH-Werte oder Membranpotentiale erfasst werden. Eine neue, viel versprechende Technik ist die Nutzung fluoreszierender Proteine, die in Quallen oder Korallen natürlich vorkommen. Durch die gentechnische Fusion ihrer Gene mit Genen zellulärer Proteine und anschließender Überexpression in Zellen in Kultur lassen sich so Proteine in einem Spektrum von blau bis rot fluoreszenzmarkieren und für zellbiologische Experimente nutzen (Abschn. 9.1.2). Fluoreszenzmikroskopie erfolgt in der Regel unter Auflichtbeleuchtung (Abb. 9.16), da die Fluoreszenz im Durchlicht völlig überstrahlt würde. Ein dichroitischer Spiegel reflektiert das kürzerwellige Anregungslicht auf die Probe und lässt das längerwellige Fluoreszenzlicht zum Detektor (Fotomultiplier oder hochempfindliche Videokamera) passieren. Geeignete Langpass- oder Bandpass-Filter sorgen für eine weitere Unterdrückung des Streulichts gegenüber dem Fluoreszenzsignal.
Abb. 9.16. Fluoreszenzmikroskopie unter Auflicht- oder Totalreflexions- (TIR-) Beleuchtung
380
9 Optische Technologien in Medizin und Life Sciences
Eine besondere Möglichkeit zur Untersuchung der Fluoreszenz an Oberflächen (z.B. Zellmembranen) bietet die Totalreflexions–Fluoreszenzmikroskopie, bei der ein Laserstrahl an der Probenoberfläche total reflektiert wird (z.B. unter Verwendung eines rechteckigen oder halbkugelförmigen Glasprismas), sein evaneszentes elektromagnetisches Feld jedoch etwa 100 nm in die Probe eindringt und diese zur Fluoreszenz anregt. Die 1981 erstmals beschriebene Methode wird zunehmend zur Untersuchung von Zell-Substrat-Topologien, Membrandynamiken, sowie von Stoffwechselvorgängen an Zelloberflächen genutzt. Abbildung 9.17 zeigt einen Mikroskopkondensor für die Totalreflexions-Fluoreszenzmikroskopie mit einer Beispielmessung.
Abb. 9.17. Ein an der Hochschule Aalen entwickelter Mikroskopkondensor für Totalreflexions-Fluoreszenzmikroskopie (links); Beispielmessung an kultivierten Endothelzellen nach Inkubation mit dem Zytoplasmamarker Calcein. Man erkennt die membrannahen Bereiche des Zytoplasmas (u.a. „focal contacts“)
Neben der Fluoreszenz-Intensität wird zunehmend auch die Fluoreszenz-Lebensdauer als Messgröße benutzt. Sie liefert wichtige Informationen über Wechselwirkungen eines Fluorophors mit seiner molekularen oder zellulären Umgebung (z.B. strahlungsloser Energietransfer, FRET, Abschn. 9.1.4). Unter Verwendung gepulster Lichtquellen und neuer, zeitlich hochauflösender Detektionssysteme können somit Lebensdauern im Subnanosekundenbereich gemessen und als Bild dargestellt werden (FLIM: Fluorescence Lifetime Imaging). 9.3.5 Laser-Scanning-Mikroskopie Bei der Laser-Scanning-Mikroskopie (LSM, Abb. 9.18) rastert der Strahl eines Lasers mit Hilfe eines Scanners S und eines Objektivs O die Probe ab und erzeugt zu jedem Objektpunkt einen entsprechenden Bildpunkt, der
9.3 Optische Mikroskopie
381
gemeinsam mit allen anderen Bildpunkten im Bildspeicher abgelegt wird. Der Strahl wird hierbei zunächst zu einem Parallelstrahl aufgeweitet, dessen Durchmesser etwas größer als die Aperturblende des Mikroskopobjektivs ist und anschließend in der Probenebene auf den Durchmesser einer Airy-Einheit (1 AE = 1,22 O/AN) fokussiert.
Abb. 9.18. Schema eines konfokalen Laser-Scanning-Mikroskops (S = Scanner, T = telezentrischer Strahlengang, O = Objektiv, Ph = Pinhole, D = Detektor)
Im Vergleich zur konventionellen Weitfeldmikroskopie ergeben sich hierbei folgende Vorteile: x eine etwas verbesserte laterale Auflösung 'x und Tiefenauflösung 'z, wie in Tabelle 9.1 dargestellt; x eine Kontrasterhöhung, da jeweils nur ein Objektpunkt gemessen und Querstreuuung von anderen Objektpunkten vermieden wird; x die Möglichkeit eines elektronischen Zooms, da das Verhältnis Bildfeld/Objektfeld über die Scanning-Amplitude variiert werden kann; x eine erhöhte Empfindlichkeit, da mit einem hochempfindlichen Punktdetektor (Fotomultiplier) statt einer Video-Kamera gemessen wird; x die Möglichkeit, Schichtaufnahmen aus einer bestimmten Probentiefe aufzunehmen, indem nur die Objektpunkte, die sich exakt im Fokus eines Laserstrahls befinden, auf eine Lochblende (Pinhole Ph) in der Bildebene abgebildet und somit detektiert werden (konfokale Mikroskopie). Im Gegensatz zur Weitfeldmikroskopie erfolgt somit keine (unscharfe) Abbildung von Objektpunkten oberhalb oder unterhalb der Fokusebene. Die Fokusebene des Laserstrahls kann durch eine Höhenverstellung des Objekttisches verändert werden, so dass eine topologische Aufnahme und eine 3D-Rekonstruktion des gesamten Objekts möglich wird. Die konfokale Mikroskopie ist allerdings nur bei Auflichtbeleuchtung möglich und wird zumeist für Fluoreszenzaufnahmen genutzt.
382
9 Optische Technologien in Medizin und Life Sciences
Abb. 9.19. Laser-Scanning-Mikroskop LSM-5 Pascal (Werkfoto: Carl Zeiss Jena; links); Beispielmessung an menschlichen Glioblastomzellen nach Inkubation mit dem Mitochondrienmarker Rhodamin 123
Abbildung 9.19 zeigt ein Laser-Scanning-Mikroskop mit einer Beispielmessung. Neben der konfokalen Mikroskopie bietet die Zweiphotonen- oder Multiphotonenmikroskopie die Möglichkeit von Schichtaufnahmen, wobei die Fluoreszenz spezifischer Moleküle durch mehrere gleichzeitig einfallende Lichtquanten angeregt wird. Dies erfolgt nur innerhalb kleinster Volumina im Laserfokus und macht die Verwendung eines Pinholes überflüssig. Allerdings sind hierfür Laserimpulse im Pico- oder Femtosekundenbereich erforderlich. 9.3.6 Laserpinzette und Laser-Mikromanipulation Ein im Mikroskop fokussierter Laserstrahl kann verschiedene Wechselwirkungen mit Zellen oder Gewebe ausüben. Wesentlich ist hierbei der Photonenimpuls p = h/O (h: Planck’sches Wirkungsquantum). Fallen in einer Zeiteinheit 't Z Photonen auf eine Probe, so können sie bei Reflexion, Absorption oder Brechung eine Kraft F = Z 'p/'t im Pico- bis Nanonewtonbereich auf die Probe ausüben. Bei einem Querschnitt des fokussierten Laserstrahls von etwa 1 µm² entsteht dadurch ein Druck bis zu 1.000 N/m². Bei transparenten Partikeln wie Zellen und Organellen ist hierbei vor allem die Brechung des Lichts entscheidend. Hat der Laserstrahl ein gauß-förmiges Intensitätsprofil (Abb. 9.20), so weist die resultierende Kraft in Richtung des Laserfokus und ermöglicht es, Teilchen im Fokus zu halten und (bei Bewegung des Laserstrahls oder des Objekttischs) zu führen. Diesem Prinzip der Laserpinzette kommt eine zunehmende Bedeutung bei der Messung intrazellulärer Kräfte, sowie der Gentechnik, Einzelzellsortierung, Zellfusion und nicht zuletzt der In–vitro–
9.3 Optische Mikroskopie
383
Fertilisation zu. Wesentlich hierbei ist allerdings, dass keine Zellschädigung durch mechanische oder thermische Wechselwirkungen erfolgt. Dies wird durch eine Begrenzung der Bestrahlungsstärke und die Wahl einer geeigneten Wellenlänge (zwischen 650 nm und 1.100 nm, wo die Absorption durch die Zelle gering ist) sicher gestellt. Üblicherweise wird der Laserstrahl mit einer Teleskopoptik in eine zur Objektebene konjugierte Ebene und anschließend durch das Mikroskop so auf die Probe fokussiert, dass sich eine beugungsbegrenzte Abbildung (Airy-Scheibchen) ergibt und die Aperturblende des Mikroskopobjektivs voll ausgeleuchtet wird. Durch Verstellung des Teleskops kann der Ort des Laserfokus auch unabhängig von der mikroskopischen Abbildung gewählt werden.
Abb. 9.20. Prinzip der Laserpinzette unter Nutzung eines Gauß-förmigen LaserStrahlprofils. Die Ablenkung der Photonen a und b aufgrund der Lichtbrechung führt zu einer Rückstoßkraft auf das dargestellte Partikel in Richtung des LaserFokus
Der Begriff Laser-Mikromanipulation beinhaltet neben der Nutzung des Photonendrucks vor allem thermische und mechanische Wechselwirkungen. So kann bei der lasergestützten Optoporation unter Verwendung eines geeigneten Absorbermediums die Temperatur auf einer Zelloberfläche lokal und transient so erhöht werden, dass die Zellmembran fluider wird und das Einschleusen von Molekülen oder kleinen Partikeln in die Zelle erlaubt. Kleine Löcher und feinste Schnitte auf Zelloberflächen können bei Einkopplung ultrakurzer Laserimpulse in ein Mikroskop durch Ablation erzeugt und beispielsweise für eine Zelltransfektion genutzt werden. Die Laser-Mikrodissektion in Kombination mit einem Herauslösen von Bereichen einer Gewebeprobe (Laser pressure catapulting) hat sich rasch zu einer etablierten Technik in der Histologie und Onkologie entwickelt.
384
9 Optische Technologien in Medizin und Life Sciences
9.3.7 Operationsmikroskopie Das Operationsmikroskop ist ein unerlässliches Werkzeug des Mikrochirurgen und wird in verschiedenen klinischen Disziplinen wie Ophthalmologie, Hals-Nasen-Ohrenheilkunde, Gynäkologie, Neurochirurgie oder plastischer Chirurgie eingesetzt. Wesentlich hierbei ist, dass bei relativ geringer Gesamtvergrößerung und numerischer Apertur (0,008 d AN d 0,05) ein hinreichender Arbeitsabstand, ein dem Operationsbereich angepasstes Sehfeld und eine genügend große Schärfentiefe erzielt werden können. Das Objekt wird zunächst mit der Objektivlinse Obj ins Unendliche und anschließend mit einer Tubuslinse T in die Zwischenbildebene abgebildet. Obj und T bilden somit ein Teleskop, dessen Vergrößerung über das Verhältnis der Brennweiten fT/fObj eingestellt werden kann. Die Beobachtung erfolgt dann mit einem Binokulartubus der Okularbrennweite fOc und der Vergrößerung VOc = 250 mm/fOc. Je nach Anwendungsgebiet werden Brennweiten zwischen 175 mm und 400 mm für das Objektiv, zwischen 125 mm und 175 mm für die Tubuslinse und zwischen 12,5 mm und 25 mm für das Okular gewählt, so dass sich bei einer Gesamtlänge zwischen 30 cm und ca. 80 cm eine Gesamtvergrößerung zwischen 5u und 20u ergibt. Wichtig ist eine stereoskopische Beobachtung, wobei der Stereowinkel allerdings wegen der geringen Apertur auf einen Wert zwischen 3° und 10° begrenzt ist. Die Beleuchtung erfolgt grundsätzlich im Auflicht; je nach Mikroskoptyp wird zwischen Köhler’scher Beleuchtung und faseroptischer Beleuchtung unterschieden.
9.4 Endoskopie 9.4.1 Einführung Die Endoskopie hat durch die Entwicklung der mininimal-invasiven Chirurgie (MIC) in den vergangenen Jahrzehnten eine noch höhere Bedeutung gewonnen. Aber auch technische Fortschritte, wie die Entwicklung modernster Kameratechnologie mit der Möglichkeit der digitalen Weiterverarbeitung der endoskopischen Bilder, die Integration des Kamerasensors in die Endoskopspitze, die Entwicklung und die Fertigung hochkomplexer optischer Systeme, die weiter schreitende Miniaturisierung, die Verwendung hochwertiger Werkstoffe oder die Entwicklung neuer optischer Verfahren tragen zur Weiterentwicklung der Endoskopie bei. Endoskopische Verfahren finden in den verschiedensten medizinischen Fachdisziplinen ihre Anwendung. Die Verfahren lassen sich nach der Bauart des Endoskops – starr oder flexible – sich in zwei Gruppen einteilen. Abbildung 9.21 gibt eine entsprechende Übersicht über ausgewählte endoskopische Verfahren.
9.4 Endoskopie
385
Abb. 9.21. Übersicht über endoskopische Verfahren
9.4.2 Endoskopie-System Die ursprüngliche Funktion des Endoskops (gr. Endo innen, innerhalb; skopein betrachten) nämlich die Erzeugung von Bildern aus dem Körperinneren wird heute durch ein Endoskopie-System realisiert. Das Endoskop ist hierbei Teil eines Gesamtsystems, das je nach Anwendung unterschiedlich zusammengestellt sein kann. Ein Endoskopie-System umfasst folgende Teilfunktionen: x x x x x
Beleuchtung, Bildgebung, Visualisierung, Dokumentation und Instrumentenzuführung.
Die Beleuchtung des Objektraumes im Körperinneren erfolgt mit Lichtquellen, die auf der Basis von Hg-, Xe- oder Metallhalogenlampen die benötigte Lichtmenge erzeugen. Das Licht wird über Lichtleitkabel und die im Endoskop integrierten Lichtleitfasern bis zum Gewebe geleitet. Diese ungeordneten Faserbündel transportieren das Licht unter Ausnutzung der Totalreflexion (Abschn. 1.1.3). Die Lichtquellen erzeugen eine annähernd tageslichtähnliche spektrale Verteilung der Intensität. Die Lichtleitfasern sind im Endoskop so anzuordnen, dass eine homogene Ausleuchtung des betrachteten Objektraums entsteht. Durch die Verwendung von Lichtleitfasern in Verbindung mit entsprechenden IR-Filtern in der
386
9 Optische Technologien in Medizin und Life Sciences
Lichtquelle wird eine unerwünschte Erwärmung des Gewebes verhindert. Diese Beleuchtungsart wird deswegen auch als Kaltlicht bezeichnet. Die endoskopische Bildgebung, d.h. die optische Abbildung durch das Endoskop, beginnt mit der Bilderzeugung durch das sich an der Endoskopspitze befindliche Objektiv, wodurch sich ein verkleinertes und umgekehrtes erstes Zwischenbild des Objekts ergibt. Dieses Zwischenbild wird mit einem Bildweiterleitungssystem aus dem Körperinneren nach außen transportiert. Die Bildweiterleitung kann optisch oder, wenn das Zwischenbild direkt mit einem in der Endoskopspitze angebrachten Bildsensor aufgenommen wurde, elektronisch erfolgen. Bei der optischen Bildweiterleitung wird das letzte Zwischenbild am Ende des Endoskops durch ein Okular vergrößert und virtuell abgebildet, wodurch ein direkter Blick in das Endoskop möglich ist. Die Visualisierung der endoskopischen Bilder durch den direkten Blick wurde in den meisten Fachdisziplinen durch den Einsatz spezieller Kamerasysteme ersetzt, die das endoskopische Bild auf einem Monitor darstellen. Diese Kamerasysteme bestehen aus einem Kameraobjektiv, einem Kamerakopf mit Bildsensor und einer Steuereinheit. Wenn auf die visuelle Endoskopie verzichtet werden kann, bieten Endoskope mit elektronischer Bildweiterleitung den Vorteil, dass nur die Steuereinheit benötigt wird, um das Bild auf den Monitor zu übertragen. Die elektronische Bilderfassung und Darstellung über den Monitor hat sich heute vielfach durchgesetzt, da sie gegenüber dem Direkteinblick in das Endoskop entscheidende Vorteile bietet. Neben einer ergonomischen Arbeitsweise bietet sie die Möglichkeit, dass mehrere Personen gleichzeitig denselben endoskopischen Blick haben. Weiterhin ermöglicht sie die analoge oder digitale Speicherung der endoskopischen Bilder mit modernen Dokumentationssystemen. Die Bilddokumentation ist für die Verlaufskontrolle und die immer wichtiger werdenden Qualitätssicherung medizinischer Eingriffe unverzichtbar geworden. Die mögliche Digitalisierung der Bildinformationen bietet darüber hinaus neue Möglichkeiten der digitalen Bildverarbeitung. Beispielsweise kann die Qualität der endoskopischen Bilder deutlich verbessert werden, aber auch neue diagnostische Perspektiven über den visuellen Blick hinaus sind möglich. Ausgehend von dem reinen diagnostischen Einsatz der Endoskopie wurden die verschiedensten Therapieverfahren unter endoskopischer Kontrolle entwickelt. Viele Endoskope sind deshalb mit einem Arbeitskanal für die Instrumentenzuführung ausgestattet oder aber das in Kombination mit dem Endoskop angewandte Instrumentarium ermöglicht das Einführen zusätzlicher Instrumente in den Körper. Neben dem Instrumentarium werden weitere Komponenten benötigt, die je nach Anwendung zum Einsatz kommen. Hierzu zählen beispielsweise Pumpen, Motoren, HochfrequenzGeräte, Ultraschall-Geräte und Laser. Zur Optimierung der Arbeitsabläufe
9.4 Endoskopie
387
im Operationssaal können die Komponenten des Endoskopie-Systems mit anderen Geräten zu einem sogenannten integrierten Operationssaal vernetzt und zentral gesteuert werden. Abbildung 9.22 und 9.23 zeigen beispielhaft die einzelnen Komponenten eines Endoskopie-Systems.
Abb. 9.22. Standard-Instrumentarium für die Laparoskopie und entsprechendes Endoskop mit angeschlossenem Kamerakopf und Lichtleiter (Werkfoto: Fa. RICHARD WOLF GmbH, Knittlingen)
Abb. 9 23. Endoskopie. Gerätewagen mit zentraler Steuereinheit (Werkfoto: Fa. RICHARD WOLF GmbH, Knittlingen)
388
9 Optische Technologien in Medizin und Life Sciences
Obwohl bei fast allen genannten Systemkomponenten optische Technologien zum Einsatz kommen, wird nachfolgend nur auf die bildgebenden Komponenten im Endoskop näher eingegangen. 9.4.3 Endoskopische Bildgebung Das für die endoskopische Bildgebung verwendete Abbildungssystem besteht prinzipiell aus den Komponenten Objektiv, Bildweiterleitungssystem und Okular. An die Leistungsfähigkeit endoskopischer Abbildungssysteme werden hohe Anforderungen gestellt. Die Leistungsfähigkeit wird im Wesentlichen durch folgende Größen beschrieben: x x x x x
Abbildungsqualität, Helligkeit, Auflösung, Kontrast, künstliche Vignettierung (Verluste an Linsenrändern und Linsenfassungen verringern das Licht in einzelnen Lichtpunkten), x Schärfentiefe, x Empfindlichkeit (elektronische Bildweiterleitung) und x Signal-Rausch-Abstand (elektronische Bildweiterleitung). Die Eigenschaften der endoskopischen Bildgebung werden insbesondere durch das verwendete Bildweiterleitungssystem bestimmt (Tabelle 9.2). Objektiv Das an der Endoskopspitze befindliche Objektiv bildet das Objekt in ein verkleinertes und umgekehrtes Zwischenbild ab. Es bestimmt mit seiner Brennweite die Größe des Objektfeldwinkels. Je größer der Objektfeldwinkel sein soll, desto kürzer muss die Objektivbrennweite gewählt werden. Bildweiterleitung Die Aufgabe des Bildweiterleitungssystems ist das im Körper entworfene Zwischenbild zu transportieren. Für die Bildweiterleitung stehen folgende Technologien zur Verfügung: x Linsensysteme, x geordnete Glasfaserbündel und x elektronische Bildweiterleitung. Die unterschiedlichen Bildweiterleitungssysteme des endoskopischen Abbildungssystems zeigt Abb. 9.24. Anstelle des direkten Blicks werden bei der optischen Bildweiterleitung (Abb. 9.24 a und b) meist entsprechen-
9.4 Endoskopie
389
de Kamerasysteme verwendet, um das endoskopische Bild auf einem Monitor betrachten zu können.
Abb. 9.24. Bildweiterleitungssysteme des endoskopischen Abbildungssystems: a) Linsensystem, b) geordnetes Glasfaserbündel, c) elektronische Bildweiterleitung
Linsensysteme Die Bildweiterleitung mit Linsensystemen erfolgt durch die Hintereinanderschaltung von Umkehrsystemen. Die Bezeichnung Umkehrsystem rührt daher, dass jedes dieser Systeme ein höhen- und seitenvertauschtes Bild erzeugt. Die Hauptaufgabe der Umkehrsysteme besteht darin, das Zwischenbild mit dem Abbildungsmaßstab 1:1 weiterzuleiten. Mit der sich hierdurch ergebenden Strahlführung legt das Umkehrsystem die Gesamthelligkeit der endoskopischen Abbildung fest. Die Größe des aufgenommenen und weitergeleiten Lichtkegels wird durch die numerische Apertur beschrieben. Damit ist die numerische Apertur des Umkehrsystems ein Maß für die Helligkeit des optischen Systems. Durch Erhöhung der Anzahl der verwendeten Umkehrsysteme kann die numerische Apertur gesteigert werden. Mit dem von Hopkins erstmals beschriebenen sogenannten Stablinsenumkehrsystem wurde ein vignettierungsarmer Linsenaufbau entwickelt, welcher mit besonders wenig optischen Bauteilen realisierbar ist. Dieser in starren Endoskopen weit verbreitete Umkehrtyp hat somit eine geringe Anzahl Glas-/Luft-Flächen. Dies führt zu einer Verringerung des Streulichtanteils und zu einer Erhöhung der Transmission.
390
9 Optische Technologien in Medizin und Life Sciences
Geordnete Glasfaserbündel Bei geordneten Glasfaserbündeln, die auch Bildbündel genannt werden, wird, wie bei den Lichtleitfasern zur Beleuchtung, die Totalreflexion an der Grenzfläche vom Kern- zum Mantelglas der Einzelfaser zur Bildweiterleitung genutzt (Abschn. 1.1.3). Für die Bildübertragung ist Voraussetzung, dass die Fasern geordnet sind, d.h. alle Fasern auf der Objektseite müssen die gleichen Nachbarfasern wie auf der Bildseite haben. Die Qualität dieser sogenannten Ordnung ist für die Detailerkennung und damit für die Gewebedifferenzierung von Bedeutung. Da nur das Kernglas zur Bildweiterleitung dient, ergibt sich eine Rasterstruktur, die von dem Durchmesser der Einzelfaser, dem Verhältnis Kern zu Mantelglas und der Packungsdichte abhängt. Neben den hochflexiblen Bildbündeln für flexible Endoskope kommen auch sogenannte Silikatbildleiter zum Einsatz. Diese sind auf der kompletten Länge verschmolzen und daher semiflexibel und robuster. Silikatbildleiter finden in starren Endoskopen dann Anwendung, wenn aufgrund der Baugröße die Verwendung eines Linsensystems aus konstruktiven Gründen oder Kostengründen nicht möglich ist. Der Einzelfaserdurchmesser liegt in Abhängigkeit der erforderlichen Abbildungsqualität zwischen 3,5 µm bis 12 µm. Je nach nutzbarem Durchmesser, der die Anzahl der Einzelfasern begrenzt und damit die Auflösung mitbestimmt, kann das Bildbündel bis zu 100.000 Einzelfasern umfassen. Elektronische Bildweiterleitung Bei der elektronischen Bildweiterleitung befindet sich an der Spitze des Endoskops ein CCD-Sensor (Charge-Coupled Device). Das Objektiv bildet das Objekt direkt auf den Bildsensor ab, der aus einer Matrix einzelner Fotosensoren besteht. Der CCD-Sensor wandelt die Lichtinformation durch Ausnutzung des inneren Fotoeffekts in elektrische Ladung. Diese wird ausgelesen und an die außerhalb befindliche Steuereinheit übertragen. Das elektrische Signal wird von der Steuereinheit weiterverarbeitet und als Videosignal zur Verfügung gestellt. Durch die weiter fortschreitende Miniaturisierung wird die elektronische Bildweiterleitung zukünftig eine immer größere Bedeutung erlangen und die optischen Techniken zur Bildweiterleitung teilweise ersetzen. Auch weitere Fortschritte in der Sensortechnik, wie die Entwicklung neuer Bildsensoren, könnten dazu beitragen. Tabelle 9.2 fasst die Eigenschaften der einzelnen Bildweiterleitungssysteme zusammen.
9.4 Endoskopie
391
Tabelle 9.2. Bildweiterleitungssysteme in der Endoskopie Technologie Linsensysteme
Funktionsweise Abbildung durch Linsen
Geordnete Glasfaserbündel
Bildübertragung durch Totalreflexion im geordneten Glasfaserbündel
Elektronische Bildweiterleitung
Umwandlung des optischen Signals in ein elektronisches Signal und deren Weiterleitung
Kennzeichen hohe Bildqualität, starr begrenzte Auflösung durch Pixelstruktur, flexibel hohe Bildqualität, flexibel
Einsatzgebiete starre Endoskope flexible Endoskope, (starre Endoskope) flexible Endoskope, starre Endoskope
Okular Das Okular erzeugt vom letzten Zwischenbild der optischen Bildweiterleitung ein virtuelles, vergrößertes Bild, das direkt mit dem Auge oder über eine Kamera mit Objektiv auf dem Monitor betrachtet werden kann. Je nach Wahl der Brennweite des Okulars und damit der gewählten Lupenvergrößerung wird ein Bild unterschiedlicher Größe erzeugt. 9.4.4 Ausführungsformen medizinischer Endoskope Endoskope werden durch natürliche oder künstlich geschaffene Körperöffnungen in den Körper eingeführt. Da sich flexible Endoskope besser an die Anatomie anpassen können, kommen diese bei natürlichen Körperöffnungen zum Einsatz. Starre Endoskope werden in künstlich geschaffene Körperöffnungen und wenn möglich bzw. notwendig auch in natürliche Körperöffnungen eingeführt. Die jeweiligen Anwendungen (Abb. 9.21) erfordern aufgrund ihrer speziellen anatomischen Gegebenheiten die Anpassung des Endoskops. Dadurch wurde eine große Zahl unterschiedlicher Ausführungsformen entwickelt, die sich beispielsweise in Durchmesser, Länge, Blickrichtung oder Objektfeldwinkel unterscheiden. Beispielhaft ist in Abb. 9.25 ein starres Endoskop für die Laparoskopie und in Abb. 9.26 ein flexibles Endoskop für die Gastroskopie dargestellt. Die im medizinischen Einsatz verwendeten Aufbereitungsverfahren stellen an die Konstruktion und die verwendeten Werkstoffe besondere Anforderungen. Beispielsweise erfordert die Dampfsterilisation mit Temperaturen von mindestens 134 °C eine entsprechende Auswahl an Materialien und Verbindungstechniken. Neben den technischen Anforderungen müssen auch die gesetzlichen Richtlinien für Medizinprodukte beachtet werden.
392
9 Optische Technologien in Medizin und Life Sciences
Abb. 9.25. Laparoskop, Außendurchmesser 10 mm, Nutzlänge 300 mm, Blickrichtung 0° und Detailaufnahmen verschiedener Blickrichtungen v.l.n.r. 0°, 30°, 50° (Werkfoto: Fa. RICHARD WOLF GmbH, Knittlingen)
Starre Endoskope Starre Endoskope bestehen vereinfacht dargestellt aus ineinanderliegenden dünnwandigen Rohren, in denen das Bildweiterleitungssystem und die Lichtleitfasern (Einzelfaserdurchmesser 30 µm bis 70 µm) integriert sind. Am Endstück der Endoskope befindet sich der Lichtanschluss und der genormte Okulartrichter zur Aufnahme der Kamera bzw. für den direkten Einblick. Das Instrumentarium und das Zubehör sind auf den jeweiligen Endoskoptyp abgestimmt. Je nach Anwendungsgebiet unterscheiden sich die Endoskope in folgenden Eigenschaften: x x x x x x x
Außendurchmesser, Nutzlänge, Integrierter Arbeitskanal, Objektfeldwinkel (40° bis 115°), Blickrichtung, Bildweiterleitungssystem und Anzahl und Art der Lichtleitfasern.
Der Außendurchmesser starrer Endoskope liegt überwiegend in einem Bereich von 1,9 mm bis 10 mm. Bei verschiedenen Anwendungen sind Blickrichtungen erforderlich, die nicht in der Achsrichtung (0°) des Endoskops liegen. Die unterschiedlichen Blickrichtungen bis zu 120° werden durch die Integration von Prismen in das Objektiv realisiert. Abbildung 9.25 zeigt ein Laparoskop für die MIC mit Detailaufnahmen der unterschiedlichen Blickrichtungen. Die meisten starren Endoskope kommen mit einem Instrumentarium zum Einsatz, das neben dem Einführen des Endoskops auch das Zuführen weiterer Instrumente ermöglicht. Spezielle Typen, wie beispielsweise Operationslaparoskope, besitzen einen integrierten Arbeitskanal. Die in der starren Endoskopie verwendeten Bildweiterleitungssysteme sind in Tabelle 9.2 zusammengestellt.
9.4 Endoskopie
393
Flexible Endoskope Ein flexibles Endoskop besteht aus einer abwinkelbaren Spitze, einem flexiblen Schaft, dem Steuergehäuse und den entsprechenden abnehmbaren bzw. fest angebrachten Anschlussleitungen. Der Schaft des Endoskops besteht aus einer Konstruktion aus Metallgeflecht und -spirale und einem speziellen Kunststoffschlauch. Die flexiblen Endoskope unterscheiden sich, je nach Anwendungsgebiet, in folgenden Eigenschaften: x x x x x x x x
Außendurchmesser, Arbeitslänge, Arbeitskanal, Abwinkelebene, Abwinkelbereich, Objektfeldwinkel, Bildweiterleitungssystem und Anzahl und Art der Lichtleitfasern.
Nach dem Außendurchmesser lassen sich flexible Endoskope in die Gruppe der gastrointestinalen Endoskope mit einem Durchmesser größer als 6 mm und in die Gruppe der dünnen Endoskope (z.B. Bronchoskope, Cystoskope) einteilen. Je nach Ausführungsform lässt sich die Endoskopspitze in einer bzw. zwei Ebenen abwinkeln. Wenn zwei Ebenen gleichzeitig angesteuert werden, kann jede beliebige Abwinkelrichtung erreicht werden. Der Abwinkelbereich, d. h. der maximale Winkel zwischen Endoskopschaft und Endoskopspitze, reicht von 60° bis 270°. Die Kraftübertragung zum Abwinkeln der Endoskopspitze erfolgt über Bowdenzüge, die mit einem bzw. zwei Steuerrädern gesteuert werden. Neben dem Bildgebungssystem, den Lichtleitbündeln und den Bowdenzügen sind noch bis zu zwei Kanäle zur Luftinsufflation, Spülung und Saugung bzw. zur Einführung von Hilfsinstrumenten im Schaft untergebracht. Die Bildweiterleitung erfolgt entweder elektronisch (Videoendoskope) oder mit flexiblen Bildbündeln (Fiberendoskope) (Tabelle 9.2). Aufgrund der besseren Bildqualität der Videoendoskope wird die Bildweiterleitung mit flexiblen Bildbündeln zukünftig mehr und mehr durch die elektronische Bildweiterleitung ersetzt werden. Abbildung 9.26 zeigt ein Videoendoskop neuester Generation.
394
9 Optische Technologien in Medizin und Life Sciences
Abb. 9.26. Video-Gastroskop, Außendurchmesser 9,8 mm, Arbeitskanaldurchmesser 3,2 mm, Arbeitslänge 1050 mm (Werkfoto: Fa. PENTAX Europe GmbH, Hamburg)
9.5 Laseranwendungen in der Medizin 9.5.1 Einführung Mit den systematischen Untersuchungen in den 80er Jahren wurde das Potenzial des Lasers für die spezifische Wirkung auf biologische Zielstrukturen wie Blutgefäße, Pigmente, Muskel- und Fettgewebe erkannt. Neben den diagnostischen Einsatzmöglichkeiten des Laser, auf die in Abschnitt 9.1, 9.2 und 9.3 näher eingegangen wird, haben sich hieraus unterschiedliche therapeutische Anwendungen entwickelt, die von dem jeweils genutzten Effekt abhängen (9.5.2). Abbildung 9.27 zeigt eine Übersicht über die therapeutischen Laseranwendungen in der Medizin und im Bereich Life Sciences.
Abb. 9.27. Übersicht über die therapeutischen Laseranwendungen
9.5 Laseranwendungen in der Medizin
395
Mittlerweile eignet sich der Laser nicht nur zur Bearbeitung von Weichgewebe, sondern er hat sich auch in der Zahnmedizin und zum Abtragen von Knochensubstanz bewährt. Einige Indikationsgebiete sind in Tabelle 9.3 aufgeführt. Tabelle 9.3. Indikationsgebiete für die wichtigsten Lasertypen Lasertyp Excimer (ArF) Excimer (XeCl) Farbstoff (gepulst)
O [nm] 193 308 580 bis 600
Argon (cw) 488, 514 Diode (cw, gepulst) 630 bis 980 HeNe (cw) Alexandrit Nd:YAG (cw)
632,8 700 bis 800 532
Nd:YAG (cw)
1064, 1340
Nd:YAG (q-switch) 1064 Rubin (gepulst) Holmium (gepulst) Er:YAG (gepulst) CO2 (cw)
Effekt abtragen abtragen koagulieren koagulieren 'T, koagul. fotochem. fotochem. 'T, Fotolyse koagulieren, vaporisieren koagulieren, vaporisieren disruptiv
694 2100
'T, Fotolyse 'T, vapor. disruptiv 2940 abtragen 9.600,10.600 vaporisieren
Indikationsgebiet Augen Gefäße Gefäße (Feuermal), Pigmente Gefäße, Netzhaut PDT, Gefäße, Haarentfernung, Chirurgie Diagnostik, Stimulation Haarentfernung, Pigmente Chirurgie, Gefäße Stenosen, Chirurgie (in Kontakt mit Faser) Augen (Membran), Lithotripsie Pigmente, Haarentfernung Harnleiterstrikturen, Gallensteine Weich- und Hartgewebe Chirurgie, Weichgewebe
9.5.2 Wirkungsmechanismen Laserlicht, das auf stark streuendes Gewebe, wie die menschliche Haut trifft, wird teilweise remittiert, im Gewebe absorbiert oder je nach Schichtdicke transmittiert. Wie in Abschn. 9.2 (Streuung von Licht) bereits erwähnt, werden die gewebeoptischen Eigenschaften durch folgende Parameter bestimmt: x Absorptionskoeffizient H x reduzierter Streukoeffizient µs’ (Gl 9.2) und x Anisotropiefaktor g (g=0 für isotrope Streuung, g=1 für Vorwärtsstreuung).
396
9 Optische Technologien in Medizin und Life Sciences
Für rotes Licht, bezogen auf die Bedingungen der menschlichen Haut, bedeutet das, dass die mittlere freie Weglänge für die Streuung eines Photons 50 µm beträgt und die mittlere freie Weglänge für die Absorption eines Photons 5 mm; ein Photon wird also 100 mal gestreut, bevor es absorbiert wird. Die Streuung ist somit verantwortlich für die Lichtverteilung im Gewebe und die Absorption für den Energietransfer in Wärme. Die Absorption ändert sich in Abhängigkeit mit der Wellenlänge des Laserlichts. Verantwortlich dafür sind die Chromophore des Bluts (Hämoglobin), Pigmente (z.B. Melanin) der Haut und der Wassergehalt des Gewebes im nahen Infrarotbereich. Die größte Eindringtiefe des Lichts in das Gewebe ist zwischen 600 nm und 900 nm gegeben. Entsprechend den Absorptionsverhältnissen und den Laserparametern unterscheidet man die folgenden Reaktionsmechanismen: x Fotochemische Reaktionen: Absorption der Lichtquanten ohne thermische Effekte (Fluoreszenzanregung, PDT, fotochemische Reaktionen). x Thermische Reaktionen: 40 °C bis 50 °C enzymatische Veränderungen, 60 °C bis 65 °C Denaturierung von Proteinen, 80°C Denaturierung von Kollagen, 90 °C bis 100 °C Austrocknung, >100°C Vaporisation und >300°C Karbonisation des Gewebes. x Koagulation des Gewebes: Denaturierung der Eiweißmoleküle, Verschluss von Gefäßen mit Blutstillung, thermische Nekrose. x Vaporisation des Gewebes: Schneiden und oberflächliches Verdampfen von Gewebe mit Blutstillung durch thermische Nekrose. x Ablation von Weich- und Hartgewebe: Schnelles Abtragen von Gewebe durch Laserpulse von 100 ns bis 400 µs Dauer, hohe Absorption ist Voraussetzung; geringe Nekrose und Blutstillung. x Optomechanischer Effekt: Auslösen von Schockwellen und Plasmaerzeugung (optischer Durchbruch) durch ultrakurze Laserpulse von fs bis ns Pulsdauer; Kavitationsblase und mechanische Zerstörung als Nebeneffekte. Durch Variation der Bestrahlungsstärke (W/cm²) und Einwirkzeit lassen sich die Wirkmechanismen modulieren und der gewünschten Therapieform anpassen. In einem Zeit-Leistungs-Diagramm (Abb. 9.28) sind die Bereiche grafisch dargestellt.
9.5 Laseranwendungen in der Medizin
397
Abb. 9.28. Zeit-Leistungs-Diagramm für die einzelnen Wirkungsmechanismen. Die diagonalen Linien entsprechen Laserpulsen mit gleicher Energie
9.5.3 Laseranwendungen Koagulieren von Gefäßen, Schneiden und Verdampfen von Gewebe ohne Blutverlust, präzises Abtragen von Gewebeschichten, kosmetische Behandlungen sowie die fotodynamische Lasertherapie unter Verwendung von Sensibilisatoren (Farbstoffen) sind neben diagnostischen Verfahren (Abschn. 9.1, 9.2, 9.3) die Hauptanwendungsgebiete des Lasers in der Medizin. Es ergeben sich durch kontinuierliche Weiterentwicklungen neue Einsatzgebiete wie in der Gelenkchirurgie oder bei der Versorgung chronischer Wunden. Die Präzision der chirurgischen Eingriffe, die selektive Wirkung des Laserlichts und die minimal invasive Vorgehensweise sind die besonderen Vorteile der Laseranwendung. Durch kleinere und preisgünstigere Geräte verbreitert sich zunehmend der Lasereinsatz. Applikatoren mit Strahlführungssystemen sind für die Anwendung ebenso wichtig wie die Strahlquelle selbst. Lichtleitfasern (Glas-, Quarzund Germaniumoxid-Fasern) stehen für den Wellenlängenbereich von 308 nm bis 3.000 nm zur Verfügung. Die Zerstörschwelle bei Quarzfasern liegt bei 30 GW/cm², die bei kurzen Pulsen schnell überschritten werden kann. Für diesen Fall helfen dann nur noch Spiegel-Gelenkarme, die auch für die Strahlleitung des CO2-Lasers eingesetzt werden.
398
9 Optische Technologien in Medizin und Life Sciences
Laser in der Augenheilkunde Nachdem es Meyer-Schwickerath 1949 mit einem Sonnenlicht-Koagulator erstmals gelang, die Netzhaut (Retina) durch die Pupille bei 10 Patienten wieder anzuheften, wurde diese Therapieform bei Netzhautablösung bald der erste Routineeingriff mit einem Argon-Ionen Laser in der Augenheilkunde. Da der Ionenlaser in seiner Energiebilanz (Lichtleistung/Elektrische Leistung) mit etwa 0,3% sehr ineffektiv ist, wurden mit Diodenlasern und Frequenz-verdoppeltem Nd:YAG (532 nm) Alternativen entwickelt. Als weiterer Laser kam der gütegeschaltete (q-switch) Nd:YAG Laser (1.064 nm, 7 ns bis 15 ns) hinzu, um über den optischen Durchbruch und die Schockwellen die Nachstarmembran wieder zu öffnen. Weitere Routinebehandlungen sind die Laser-Iridektomie und Laser-Trabekuloplastik zur Glaukomtherapie. Aufsehen erregten die ersten Anwendungen zur Korrektur der Fehlsichtigkeit (Myopie) des Auges mit dem Excimer-Laser (ArF) bei 193 nm Wellenlänge. Dabei wurde über eine computer-gesteuerte Blende die Oberfläche der Hornhaut (Cornea) zentral stärker abgetragen als peripher, so dass die Brechkraft der Hornhaut verringert und der Fokus nach hinten auf die Retina verlagert wurden. Vorübergehende Trübungen der Hornhaut mit Einschränkungen der Nachtsicht waren häufig die Nebenwirkungen. Deshalb hat sich das LASIK-Verfahren (Laser assistierte in situ Keratomileusis) am meisten verbreitet. Hierbei wird mechanisch eine dünne Hornhautschicht nahezu abgetrennt, dann die Korrektur mit dem Excimer-Laser im Stroma vollzogen und anschließend die oberflächliche Schicht wieder zurückgeklappt. Myopien bis –10 Dioptrien lassen sich auf diese Weise korrigieren. Abbildung 9.29 zeigt ein Excimer Laser-System und Beispiele für seine Anwendung.
Abb. 9.29. Excimer Laser-System zur Korrektur der Fehlsichtigkeit (links). Mit rotierenden Masken kann die Korrektur der Fehlsichtigkeit individuell eingestellt werden (Pfeile) (Werkfoto: Asclepion Meditec)
9.5 Laseranwendungen in der Medizin
399
Die Entwicklung geht jedoch weiter. Mit einem scannenden Lasersystem können neben der Brechkraftkorrektur auch lokale Aberrationen höherer Ordnung ausgeglichen werden, um scharfes Sehen noch zu verbessern. Dazu wird zur Diagnostik ein Wellenfrontsensor (Hartmann-Shack Sensor) eingesetzt, der über eine Matrix von Mikrolinsen Wellenfrontkorrekturen bei der Abbildung des Auges ermöglicht, die dann bei der Laserbehandlung berücksichtigt werden. Statt eines Excimer-Lasers sind derzeit Femtosekundenlaser in der Erprobung, die über den optischen Durchbruch ohne das mechanische Abtrennen der oberflächlichen Schicht direkt im Stroma der Hornhaut die Korrektur der Fehlsichtigkeit durchführen können. Beispiele der Wellenfrontdeformationen und eines fs-Lasersystems zeigen Abb. 9.30 und Abb. 9.31.
Abb. 9.30. Wellenfrontdeformation bei der Abbildung durch das Auge (Werkfoto: PERFECT VISION Optische Geräte GmbH, Heidelberg)
Abb. 9.31. Femtosekunden-Lasersystem (Werkfoto: IntraLase Corp., Irvine)
400
9 Optische Technologien in Medizin und Life Sciences
Laser in der Dermatologie Das größte Spektrum der Laseranwendung bietet der Laser in der Dermatologie und der Kosmetik. Die häufigsten Indikationsgebiete sind in Tabelle 9.4 dargestellt. Für die Therapie vaskulärer Veränderungen werden zur Verödung der Blutgefäße Laser im sichtbaren und NIR-Spektralbereich eingesetzt. Hierbei muss die Hautoberfläche gekühlt werden (kalter Luftstrom, Eis, kalter Glasspatel oder gekühltes Saphirfenster), damit keine Verletzungen und Narben entstehen. Beispiel eines Hämangioms zeigt Abb. 9.32. Ein Er:YAG-Laser zum Abtragen von Gewebe (Haut, Naevi, Pigmentierungen) zeigt Abb. 9.33. Tabelle 9.4. Indikationen und Lasertypen für Anwendungen in der Dermatologie Indikationen: Feuermale, Besenreiser, Hämangiome Pigmente, Tätowierung, Altersflecke Condylome, epidermale Naevi, Plaques Aktinische Keratose, BCC Psoriasis Faltenglättung, Xantylasmen Epilation (Haarentfernung)
Lasertypen Argon-Ionen, Farbstoff (gepulst), Nd:YAG, Diode Rubin, Farbstoff, Nd:YAG (q-switch) Er:YAG Laser, CO2 Laser, Dioden-Laser (PDT) Excimer-Laser (308 nm) Er:YAG Laser, CO2 Laser Alexandrit-Laser, Dioden-Laser
Abb. 9.32. Beispiel der Lasertherapie eines Hämangioms mit dem Nd:YAG Laser (mehrere Sitzungen)
9.5 Laseranwendungen in der Medizin
401
Abb. 9.33. Beispiel eines gepulsten Er:YAG Lasers für die Anwendungen in der Dermatologie zum Abtrag von Gewebe (Haut, Naevi, Pigmentierungen) (Werkfoto: Asclepion Meditec)
Chirurgische Laseranwendungen Für große chirurgische Eingriffe, die das Skalpell ersetzen, ist der Laser auch aus Kostengründen nicht geeignet. Wohl aber für spezifische chirurgische/mikrochirurgische Anwendungen, beispielsweise in der Handchirurgie oder bei der Öffnung von Stenosen im Verdauungstrakt. Oberflächliches Gewebe kann mit dem CO2-Laser vaporisiert oder mit dem Er:YAG Laser abgetragen werden. Vorteile sind die gleichzeitige Blutstillung und die Heilung mit gutem kosmetischen Effekt. Endoskopisch lässt sich der Laser über Lichtleitfasern einsetzen zum Koagulieren oder Verdampfen von Gewebe, beispielsweise bei Strikturen (Harnleiter). Hierzu eignet sich auch der Holmium-YAG Laser. Laser in der Zahnmedizin Mittlerweile hat der Laser auch in der Zahnmedizin Einzug gehalten. Anfangs war das Hauptindikationsgebiet die Kariesentfernung: neuerdings ist der Laser zum allgemeinen mundchirurgischen Instrument geworden. Durchgesetzt hat sich der Er:YAG-Laser zum Abtragen von Zahnhartsubstanz, in der Weichgewebechirurgie, der Parodontologie und der Wurzelkanalsterilisierung. Abbildung 9.34 zeigt den Abtrag von Zahnschmelz und Dentin mit dem Er: YAG Laser.
402
9 Optische Technologien in Medizin und Life Sciences
Abb. 9.34. Abtrag von Zahnmaterial mit dem gepulsten Er:YAG Laser und einer feinen Wasserbefeuchtung zur Vermeidung von thermischen Schäden
Die aktuelle Lasergeneration ist sogar mit einem Feedback-Mechanismus zur selbständigen Erkennung von kariösen Veränderungen über selektive NIR-Fluoreszenzdiagnostik ausgestattet (Abb. 9.35).
Abb. 9.35. A: Schema des rückgekoppelten Lasers mit . Erkennung von kariösen Veränderungen (B: Abtrag von Zahnhartsubstanz, C: Faserendstück für den Einsatz in der Endodontie und D: Parodontologie)
Für die verschiedenen Einsatzgebiete sind nur die Handstücke – wie konventionell die Bohrer – auszuwechseln. Es gibt chirurgische Handstücke, Faser-Handstücke für die Endodontie und meiselartige Endstücke für die Lichtauskopplung zur Behandlung der Zahntaschen in der Parodontologie.
9.6 Literatur
403
9.6 Literatur Ashkin A (1988) Strahlungsdruck. In: Müller A (Hrsg) Anwendungen des Lasers. Spektrum der Wissenschaft, Heidelberg, S 38–49 Berlien H-P, Müller G (Hrsg) (1989) Angewandte Lasermedizin. Lehr- und Handbuch für Praxis und Klinik. ecomed, Landsberg München Zürich Barbe DF (ed) (1980) Charge-coupled devices. (Topics in applied physics; v. 38). Springer, Berlin Heidelberg New York Demtröder W (1999) Laserspektroskopie – Grundlagen und Techniken. Springer, Berlin Heidelberg New York Förster T (1960) Zwischenmolekularer Übergang von Elektronenanregungsenergie. Z Elektrochem 64: 157–164 Göke G (1988) Moderne Methoden der Lichtmikroskopie. Franckh’sche Verlagshandlung, Stuttgart Katzir A (1993) Lasers and optical fibers in medicine. Academic Press, San Diego Müller O (1991) Operationsmikroskopie. In: Hutten H (Hrsg) Biomedizinische Technik, Band 4. Springer, Berlin Heidelberg New York, S 39–52 Ochi S, Iizuka T, Hamasaki M, Sato Y, Narabu T, Abe H, Kagawa Y, Kato K (1996) Charge-coupled device technology. (Japenese technology reviews. Section A: Electronics; v. 30). Gordon und Breach Publishers, Amsterdam Raulin Ch, Greve B (2001) Laser und IPL-Technologie in der Dermatologie und Ästhetischen Medizin. Schattauer, Stuttgart Salm R, Hentschel M, Kramme R (2002) Endoskope. In: Kramme R (Hrsg) Medizintechnik. Springer, Berlin Heidelberg New York, S 188–206 Schmidt W (1994) Optische Spektroskopie. VCH-Wiley, Weinheim Tuchin VV (ed) (2002) Handbook of Optical Biomedical Diagnostics. SPIE, Bellingham Vo-Dinh (ed) (2003) Biomedical Photonics Handbook. CRC Press, Boca Raton Wurster H, Zobel J (1991) Endoskopie und ihre Anwendung. In: Hutten H (Hrsg) Biomedizinische Technik 4. Springer, Berlin Heidelberg New York, S 53–88 Zobel J (1988) Optische Systeme in der Endourologie – derzeitiger Stand und Perspektiven. In: Schüller J, Hofstetter AJ (Hrsg) Endourologie. George Thieme, Stuttgart New York, S 19–30
10 Gebrauchsgüter
Gebrauchsgüter sind durch folgende Merkmale gekennzeichnet: x Massenartikel für Endverbraucher, die ohne direkte Hersteller-Kunden Beziehung auskommen. x Bedienung durch Laien möglich. x Globaler Markt und internationaler Wettbewerb. x Stark preissensitiv. Gebrauchsgüter in der Optik (mit Ausnahme von Beleuchtungssystemen) dienen vor allem folgenden Zwecken : x Bildaufnahme (Analoge und digitale Fotokamera, Handycam, Webcam, Camcorder, Scanner, Fax, Fotokopierer). x Bildvergrößerung (Mikroskop, Lupe, Teleskop). x Bildwiedergabe (Analoger und digitaler Projektor, Head Mounted Display und Head Up Display). In allen Segmenten der Gebrauchsoptik findet ein rapider Technologiewechsel statt. Technologietreiber sind dabei der Preis und vor allem der in weitgehend gesättigten Märkten hohe Innovationsdruck. Die wesentlichen Technologiesprünge kann man wie folgt zusammenfassen: x x x x x
Miniaturisierung. Ablösung der fotochemischen durch die elektronische Bildaufzeichnung. Ablösung analoger durch digitale Techniken. Ablösung von thermischen Lichtquellen durch Halbleiterlichtquellen. Ablösung feinmechanischer Lösungskonzepte durch mechatronische Lösungsansätze. x Ersatz von Metall- durch Kunststoffbauteile.
Im Folgenden werden diese Aspekte an den hauptsächlichen Anwendungen deutlich werden. Ferner wird aufgezeigt, welche zukünftigen Entwicklungen zu erwarten sind.
406
10 Gebrauchsgüter
10.1 Bildaufnahme 10.1.1 Analoge Fotokamera Bilderzeugung und –speicherung ist eine der fundamentalen Aufgaben der Optik, die seit der Erfindung der Fotografie durch Daguerre 1835 eine kontinuierliche Ausbreitung erfahren hat. Wesentliche Schritte zum Gebrauchsgut waren gegen Ende des 19. Jahrhunderts die Herstellung von konfektionierten Filmen sowie von preisgünstigen und relativ einfach zu bedienenden Kameras durch George Eastman. In den folgenden Jahren wurden die Kameras in Richtung zunehmende Automatisierung der Aufnahme und Miniaturisierung weiterentwickelt (Abb. 10.1).
Abb. 10.1. Erste Rollfilmkamera von Kodak (Quelle: US-Patent 388850) und aktuelle Einwegkameras von Kodak und Agfa
Durch die Anwendung elektronischer und mechatronischer Bauelemente gelang in den 80-er und 90-er Jahren eine nahezu vollständige Automatisierung der Kameras, so dass das alte Kodak Motto „You press the button, we do the rest“ nahezu vollständig umgesetzt werden konnte. Bei der Miniaturisierung wurden weniger dramatische Fortschritte erreicht, da die Größe der Hand hier eher eine physiologische als optisch bedingte Grenze setzte. Erst mit dem Siegeszug der fotoelektronischen Bildaufzeichnung trat eine Größenlimitierung aufgrund optischer Randbedingungen ein. Der Ersatz der fotochemischen durch die digitalisierte, fotoelektronische Bildaufzeichnung wurde durch zwei technologische Megatrends begünstigt, nämlich die dramatisch steigende Integrationsdichte elektronischer Bauelemente und die weite Verbreitung von Computern.
10.1 Bildaufnahme
407
10.1.2 Digitale Fotokamera Gemeinsam ist allen Digitalkameras, dass sie ein automatisches Belichtungssystem (inklusive Blitz) und ein Display beinhalten, das die direkte Kontrolle der aufgenommenen Bilder ermöglicht. Mit einem StandardUSB-Anschluss ist ein Datenaustausch zum PC problemlos möglich. Abbildung 10.2 zeigt die Größenvergleiche zwischen der ersten Digitalkamera und den heutigen digitalen Fotoapparaten.
Abb. 10.2. Größenvergleich Digitalkameras: Erste Digitalkamera Mavicam (1981) von Sony, mit ultraflache (11 mm dicke) Digitalkamera im Scheckkartenformat mit 2 Mio Pixeln (Casio 2004) und die Consumer High-End Spiegelreflexkamera mit 6,1 Mio Pixeln (Nikon 2004)
Die fotochemisch realisierte Polaroid-Philosophie von Edwin Land, ein Bild bereits kurz nach der Aufnahme anschauen zu können, wurde von den Digitalkameras (fast) vollständig abgelöst. Zwei dominante Trends in der Entwicklung von Digitalkameras können heute beobachtet werden: Weitere Miniaturisierung und Erhöhung der Pixelzahl. Durch eine höhere Pixelzahl kommt man der Auflösung und der Farbbrillanz eines fotochemisch erzeugten Bildes (z.B. Dia) immer näher. Diese betragen etwa 6 Mio bis 10 Mio Bildpunkte, je nach Film und eingesetzter Optik. 10.1.3 Handycam und Webcam Fotohandys verdrängen derzeit Digitalkameras im Niedrigpreissegment mit Objektiven einer Brennweite (Abb. 10.3). Sucherkameras mit Zoomobjektiven und Spiegelreflexsystemen lassen sich in Handys aus Platzgründen (noch) nicht unterbringen.
408
10 Gebrauchsgüter
Abb. 10.3. Handy mit integrierter Kamera (Werkfoto: Vodafone/Sharp)
Die Größe des Kameramoduls inklusive Optik liegt in der Größenordnung von 5 übereinanderliegenden 1-Cent-Stücken. Das Gewicht der Optik ist mit etwa 0,5 g nicht entscheidend für das Gesamthandygewicht. Die Objektive werden normalerweise in zwei unterschiedlichen Positionen auf der optischen Achse betrieben, um den Nahbereich und den Fernbereich abdecken zu können. Der Verrechnung von Bildstapeln wird in künftigen Handys mehr Aufmerksamkeit gewidmet werden, weil damit die Vergrößerung der Tiefenschärfe bei gleicher Objektiv-Apertur möglich wird. Dies ist den herkömmlichen fotochemischen Prozessen nicht möglich. Das Handy wird voraussichtlich zur Drehscheibe der audiovisuellen Kommunikation. Die Standardisierung von Schnittstellen wird dafür sorgen, dass Kameras ihre Daten digital an ein Handy übertragen und dort bis zur weiteren Bearbeitung zwischenspeichern. Webcams sind Kameras, die für den Austausch bewegter Bilder im Internet entwickelt wurden und über eine relativ kleine Bildpunktzahl im Filmmodus verfügen, um eine quasi Live-Übertragung zu ermöglichen. Im Internet haben sich bereits Märkte aufgetan, die ohne Webcams gar nicht denkbar wären. Webcams gibt es in der Low-cost–Variante vom einfachen Kameramodul mit typischerweise 320 u 240 Bildpunkten einschließlich USB-An-
Abb. 10.4. Webcam mit Zoom und Remote-Funktionen (Werkfoto: Logitech)
10.1 Bildaufnahme
409
schluß bis zum High-End-Gerät mit Megapixel-Bildsensoren, Face Tracking Funktion, 18u optisches Zoom-Autofocus Objektiv, 2 per Remote ansteuerbaren Kippachsen (z.B. Sony EVI D70PW oder Logitech QuickCamOrbit, Bild 10.4). Webcams sind technisch betrachtet sehr weit entwickelt. 10.1.4 Camcorder Der harte Wettbewerb mit ständig neuen Innovationen im digitalen Bereich verringert die Produkt-Lebensdauer dieser Systeme ständig. Zwei Generationswechsel im Jahr sind daher keine Seltenheit. Zoomobjektive mit 8 fach Zoom gehören zum Standard. Selbst Camcorder mit 12 fach bis 20 fach Zoom-Objektiven sind erhältlich. Der enorme Preiskampf zwingt die Hersteller dazu, die Kosten auch im Bereich der Optik zu reduzieren. Fassungen aus Kunststoff, neue Antriebskonzepte für Autofokus und motorisches Zoomen sowie höherintegrierte Elektronik sorgen für fallende Preise und kleinere Geräte (Abb. 10.5)
Abb. 10.5. Größenvergleich: Erster consumerorientierter Camcorder Sony Betamovie BMC 100 im Vergleich zum Sony Digital-Camcorder mit Zeiss-Optik und Panasonic 3 Chip-Camcorder mit Leica-Optik
Moderne Consumer-Camcorder sind so kompakt wie Fotoapparate, passen so in (fast) jede Jacken- bzw. Handtasche und sind damit immer einsatzbereit. Diese technologische Entwicklung hat folgende zwei Ursachen: 1. Die Entwicklung kompakter extrem leistungsfähiger Akkumulatoren. 2. Die Fortschritte in der Halbleiterlithografie, die es erlaubt, immer mehr Schaltkreise auf gleicher Fläche unterzubringen. Der Camcorder der Zukunft wird vermutlich eine wiederbeschreibbare Mini-DVD oder ähnliches (z.B. Blue CD) als Speichermedium benutzen.
410
10 Gebrauchsgüter
Da die Pixelgröße in den Bildsensoren sich ständig weiter verringert, wird die Optik neue Wege gehen müssen, um beugungsbegrenzt auf einer großen Sensorfläche abbilden zu können. Die Optiken werden aus Kostengründen aus Bi-Asphären bestehen und glasähnliche Kunststoffe werden das Gewicht der Camcorder weiter verringern. Neue einheitliche Schnittstellen werden mittelfristig zur kabellosen Vernetzung aller digitalelektronischen Bildaufnahme- und Bildwiedergabegeräte führen (Abschn. 10.3). 10.1.5 Flachbettscanner, Fotokopierer, Fax Optisch betrachtet funktionieren Scanner, Fotokopierer und Faxgeräte nach dem gleichen Prinzip: Eine definiert beleuchtete Linie auf einer Vor-
Abb. 10.6. Prinzip des CCD-Flachbett-Scanners
10.1 Bildaufnahme
411
lage wird über ein optisches System auf eine CCD- oder CMOS-Zeile abgebildet und das daraus resultierende Farb-Signal digitalisiert. Allen gemeinsam ist die Relativbewegung der Vorlage zum Detektor (Bild 10.6). Moderne Scanner lösen eine DIN A4 Auflage mit deutlich mehr als 10 Millionen Bildpunkten auf. Beim Scannen gibt es zwei unterschiedliche Verfahren: 1. Historisch betrachtet früher und damit technisch sehr ausgereift sind die Scanner, die über eine Plan-Spiegelsystem und einer abschließenden Optik das reflektierte Licht auf den CCD-Sensor projizieren. 2. Das neue Scanner-Prinzip verzichtet auf eine justierbare Optik. Die abrasternde Zeile wird in der Papierbreite ausgeführt. In diese Zeile ist eine Mikrolinsenzeile integriert, die einen Bildpunkt auf den entsprechenden Pixel abbildet. Diese Technologie wird auch als CIS (Compact Image Sensor) bezeichnet. Die Beleuchtung basiert auf der LIDE–Technologie (LED In Direct Exposure). Rote, grüne und blaue LED werden sequentiell eingeschaltet. Diese Scanner können daher extrem flach gebaut werden (Abb. 10.7).
Abb. 10.7. Extrem flacher DIN A 4-Scanner nach dem LIDE-Prinzip (Werkfoto: Canon)
Die Qualität der Flachbildscanner wird durch die Digitalisierungstiefe (z.B. 30 Bit = 3 u 10 Bit pro Farbe) und durch die optische Auflösung bestimmt. Während Faxvorlagen meist mit etwa 100 dpi, d. h., mit 100 dots (=Punkten) pro inch (=2,54 cm) für geschriebene Vorlagen auskommen,
412
10 Gebrauchsgüter
sind 300 dpi bis 600 dpi für Fotos in Normalgröße (4 inch u 5 inch) anstrebenswert. Bei Dias sind 2.400 dpi wünschenswert. Dies entspricht einer Auflösung von etwa 10 µm, die allerdings von den wenigsten ConsumerScannern erreicht wird. Flachbettscanner gehören mittlerweile zum Standardzubehör eines Computers. In All-in-One Geräten sind sowohl Flachbettscanner, als auch Faxgeräte integriert. Die Faxfunktion wird künftig weiter an Bedeutung verlieren, weil der Emailverkehr unter anderem wegen der möglichen Datenreduktion effizientere Möglichkeiten zum Datenaustausch bietet. Höhere optische Auflösungen als bisher sind aus Benutzersicht nicht mehr notwendig, weil die Auflösungsgrenze des Auges mit modernen Scannern bereits überschritten ist (etwa 30 µm auf 25 cm). Der Einsatz von Leuchtdiodenarrays (z.B. LIDE) wird mittelfristig die konventionellen Gasentladungsröhren ersetzen, weil diese wesentlich schneller einsatzbereit und langlebiger sind. Bedingt durch Digitalfotographie und Beamertechnologie werden Diascaneinheiten als Zubehör verschwinden. CMOSZeilen-Sensoren werden die CCD-Zeilen-Sensoren ersetzen, weil diese weniger Strom pro ausgelesenes Pixel (=dot) benötigen, preiswerter in der Herstellung und unempfindlicher gegen Über- und Unterbelichtung sind.
10.2 Vergrößerungsgeräte Allen Vergrößerungsgeräten ist gemeinsam, dass für die Beobachtung eine Quantenwandlung von Photonen in Elektronen oder umgekehrt nicht notwendig ist. 10.2.1 Mikroskop Lichtmikroskope waren schon zu Beginn auf den Verbraucher ausgerichtet, allerdings mit der Zielrichtung der „Gemütsergötzung“. Dieser Effekt konnte bei frühen optischen Geräten häufig festgestellt werden (z.B. Laterna Magica). Mikroskope konnten lange nicht in gleicher Qualität gebaut werden, weil der Zusammenhang zwischen Optik und Auflösungsvermögen nicht erklärt werden konnte. Dies gelang zuerst Ernst Abbe 1871. Diese Erkenntnis und die Fähigkeit, Präzision in Massenproduktion herstellen zu können, eröffneten nach dem 2. Weltkrieg die Möglichkeit, für eine breite Bevölkerungsschicht Schülermikroskope zu einem akzeptablen Preis herzustellen. Mittlerweile erobert die digitale Mikroskopie die Verbrauchermärkte (Abb. 10.8).
10.2 Vergrößerungsgeräte
413
Abb. 10.8. Oben links: Einer der ersten Consumer-Mikroskope von Smith und Beck. Oben rechts: Lupenmikroskop des 17. und 18. Jahrhunderts (Optisches Museum Oberkochen). Unten in der Mitte: Schülermikroskop 40 fache bis 1.200 fache Vergrößerung mit USB-Videookular (Werkfoto: Meade)
10.2.2 Lupe Lupen gehören zu den vergrößernden Sehhilfen im Bereich von etwa zweibis zehnfacher Vergrößerung. Die Funktion ist denkbar einfach. Befindet sich ein Objekt innerhalb der einfachen Brennweite der Lupe, so entsteht beim Betrachten ein virtuelles, aufrechtes, seitenrichtiges Bild auf der Netzhaut des Betrachters. Lupen gibt es in vielen Variationen. Die bekannteste ist die Handlupe, die ihre optische Wirkung im großen Augenabstand (> Brennweite der Lupe) entfaltet, womit sie für längere Zeit, beispielsweise beim Zeitungslesen genutzt werden kann. Hier kommt es im Wesentlichen auf ein großes Sehfeld an, das einen Durchmesser zwischen 30 mm und 90 mm aufweist und Vergrößerungen zwischen 1,5 fach und 4 fach realisiert. Während noch vor 40 Jahren praktisch jede Lupe aus Glas bestand, sind heute häufig Kunststofflinsen im Einsatz. Dank FresnelKunststoff-Optik können heute Lupen im Scheckkartenformat hergestellt werden (z.B. VisuCard in Abb. 10.9). Auf dieser Basis gibt es auch sehr große Lupen in m²-Größe, die als 1,5 fach vergrößernde Sehhilfe für TVGeräte bis etwa 80 cm Bilddiagonale angeboten werden.
414
10 Gebrauchsgüter
Abb. 10.9. Superflache Handlupe mit Fresnellinse (Werkfoto: Carl Zeiss)
Messlupen haben die stärkste optische Vergrößerung im Bereich der Lupen (in der Regel zehnfach bis maximal vierzigfach). Sie werden überwiegend von Juwelieren, Uhrmachern, Ärzten und ambitionierten Bastlern benutzt. Auch die Textilindustrie benutzt seit über 150 Jahren eine Messlupe als Fadenzähler. In den letzten Jahren wird Glas durch Kunststoff ersetzt. Kunststoff ist nicht nur leichter, sondern kann auch als Massenprodukt sehr kostengünstig hergestellt, verarbeitet und bearbeitet werden. Mit Abformtechniken (Abschn. 2) können beispielsweise preisgünstig nichtsphärische und diffraktive Strukturen hergestellt werden. Dies ist durch die Entwicklung von Kunststoffen mit glasähnlicher Homogenität möglich geworden, so dass sich die Kunststofflinse vom Kinderspielzeug zum High-Tech Produkt gewandelt hat. Die Entwicklung der Lupen ist noch nicht beendet. Jüngst ist eine Lupe mit LED-Beleuchtung und Kamera unter dem Namen TV-Lupe vorgestellt worden, die den betrachteten Bildausschnitt auf eine Mini-Videokamera projiziert, der dann über einen TV-Monitor vergrößert angeschaut werden kann. Beleuchtet wird die Szene mit langlebigen LED’s (Abb. 10.10). Damit ist die Funktion der Lupe elektronisch nachgebildet.
Abb. 10.10. Lupe mit integrierter Kamera, LED-Beleuchtung und Videoinverter
10.2 Vergrößerungsgeräte
415
10.2.3 Teleskop Bilder aus dem Weltall in hoher Auflösung zu betrachten, ist ein uralter Menschheitstraum. Man kann dadurch Strukturen und Bilder erkennen, was man mit bloßem Auge nicht sehen kann. Obwohl Linsen schon seit dem 13. Jh. bekannt sind, tauchen die ersten Teleskope erst um 1600 auf (z.B. bei Galilei und Kepler). Fast zeitgleich wurden auch Doppelrohrferngläser entwickelt. Relativ rasch werden Ferngläser nach dem GalileiPrinzip vorgestellt, das heute noch in Operngläsern weit verbreitet ist. Das optisch bessere Kepler-Prinzip kam zunächst nicht zum Einsatz, da es kein aufrecht stehendes Bild ermöglichte. Mitte des 19. Jahrhunderts kam Porro auf die Idee, zwei um 90° zueinander verdrehte Prismen zur Strahl-Umlenkung zu verwenden und damit bei Keplergläsern ein aufrecht stehendes Bild zu erzeugen. Varianten sind für heutige die Prismensysteme nach Abbe-König und Schmidt-Pechan, wobei letzteres im Wesentlichen wegen seiner extremen Kompaktheit zum Einsatz kommt (Abb. 10.11).
Abb. 10.11. Fernglastypen für unterschiedliche Consumermärkte mit Porro-, Abbe-König- oder Schmidt-Pechan-Prisma
Mit der Vergütung der optischen Elemente wuchs auch der Wunsch, die optische Qualität nachhaltig zu verbessern. Wird die Fokussierung durch eine Innenlinse realisiert, dann bleibt das Volumen im Fernglas konstant. Durch Befüllung mit einem Schutzgas wird dafür gesorgt, dass die innenliegenden optisch vergüteten Flächen chemisch inaktiv sind. Die außenliegenden Flächen werden über aufgedampfte Hartschichten (z.B. SiO2) zusätzlich versiegelt.
416
10 Gebrauchsgüter
Teleskope können in eine Reihe von Typen eingeteilt werden. Die wichtigsten Fernglastypen sind: x Taschenferngläser, x Universalgläser und x Nachtgläser und Sondergläser wie Operngläser, Marinegläser, Gläser mit Bildstabilisierung, Entfernungsmessung, Kompass und anderen Sonderfunktionen sowie Ferngläser mit ausziehbarem Tubusrohr (so genannte Spektive). Alle diese Gläser unterscheiden sich in ihren Funktionalitäten: Die wichtigsten Kenngrößen sind Vergrößerung, Fernrohrleistung, Sehfeld und Dämmerungszahl. Die Vergrößerung wird dabei weniger durch optische Grenzen limitiert als durch die Handunruhe, welche die Detailerkennbarkeit stark beeinträchtigen und ein volles Ausschöpfen der Fernrohrleistung unmöglich machen kann. In der Praxis haben sich Vergrößerungen zwischen 7 und 10 als bester Kompromiss zwischen dem Wunsch nach einer möglichst hohen Vergrößerung und der Begrenzung durch Handunruhe gezeigt. Als Fernrohrleistung wird das Verhältnis der erreichbaren Sehschärfe mit Fernrohr zur Sehschärfe ohne Fernrohr definiert. Diese Leistung wird primär durch die Korrektur der Abbildungsfehler des Fernglas begrenzt. Das Sehfeld wird entweder in Winkelgraden (Japan, USA) oder in m auf 1 km Entfernung angegeben. 17,46 m auf 1.000 m entsprechen einem Winkel von 1°. Typische Werte für Taschen- und Universalgläser liegen bei 100 m bis 140 m auf 1 km Entfernung. Am meisten verbreitet sind kleine handliche Ferngläser mit Austrittpupillen zwischen 2 mm und 3 mm und Vergrößerungen zwischen sechs- und zwölffach, die es dem Beobachter erlauben, von zwei Stunden nach Sonnenaufgang bis etwa zwei Stunden vor Sonnenuntergang zu observieren. Die Austrittspupille ist einfach zu berechnen. Sie ist der Quotient aus Eintrittspupille durch Vergrößerung. Bei einem 8 mm u 20 mm Fernglas beträgt die Austrittpupille also 20mm/8 = 2,5 mm. Da der Pupillendurchmesser des Auges selbst bei Nachtsehen selten 7 mm überschreitet, wird bei Nachtgläsern in den meisten Fällen ein Austrittspupillendurchmesser von etwa 8 mm gewählt. Je größer die Pupille ist, desto eher sind optische Fehler im System erkennbar. Hochöffnende Systeme sind aufwändiger im optischen Aufbau und damit auch höher im Gewicht. Diese Gläser werden von Benutzern mit besonderen Anforderungen benutzt (z.B. Jäger, Förster, Soldaten oder Sicherheitskräfte). Weil sie praktisch zu jeder Zeit eingesetzt werden können, werden sie auch häufig als Nachtgläser bezeichnet. Es ist allerdings zu beachten, dass die Korrektionsstrategie für Nachtgläser im Normalfall zur Minimierung von Farbfehlern ausgerichtet ist. Astronomen, die lieber
10.3 Bildwiedergabe
417
verzeichnungsfreie Gläser benutzen möchten, müssen also andere Gläser benutzen. Eine Alternative zu Nachtgläsern sind Systeme mit elektronischen Bildverstärker- oder Restlichtverstärkereinheiten. Diese haben sich wegen der hohen Kosten und der schlechten Bildauflösung nicht durchgesetzt. Lichtstarke Ferngläser nach dem Galileiprinzip hingegen haben eine weite Verbreitung beispielsweise als Opern- oder Theatergläser gefunden. Galileiteleskope sind auch interessant als Sehhilfe, die durch Einkopplung einer Nahlinse auch als Lupe benutzt werden kann (z.B. mobilux far). Zudem kann auch ein diffraktiv optisches Element (DOE) in das Optikdesign integriert werden. Neben der optischen Qualität der Einzeloptiken sind heute die Transmission des Lichtes durch das System und der beobachtbare maximale Kontrast zum Auswahlkriterium für Ferngläser geworden. Durch geeignete Breitband-Antireflexbeschichtung werden Gesamttransmissionen bis über 90% erreicht und damit unnötige Reflexionen vermieden, die durch Falschlicht den Kontrast verschlechtern. Dies setzt aber voraus, dass die Einzeltransmission durch ein optisches Element besser als 99% sein muss. Ohne Beschichtung liegt sie für konventionelle Gläser bei 92% pro Linse. Selbst bei einem sehr einfachen System mit einem Porro-Prisma und zwei verkitteten Linsengruppen ergäbe sich dann eine Transmission von maximal 75%, wenn man berücksichtigt, dass auch noch Verluste bei der Reflexion auftreten. Derzeit sind die ersten Ferngläser mit integrierter Digitalkamera erhältlich. Elektronische Bildstabilisierung in Ferngläsern wird in den nächsten Jahren wahrscheinlich noch keinen Marktzugang finden, da die bekannten Lösungen technisch sehr aufwändig sind. Darüber hinaus gibt es bereits Ferngläser mit verschiedenen Funktionen im sogenannten „Outdoor“Bereich (z.B. Kompass, Höhenmesser und GPS-Anzeige), die Daten einspiegeln können. Insgesamt ist wie bei den Foto-Handys eine Funktionalitätszunahme zu verzeichnen.
10.3 Bildwiedergabe 10.3.1 Analoge Projektoren Das Grundprinzip ist bei allen Projektoren gleich: Eine Beleuchtungsquelle bestrahlt eine Bildebene, die mit einer Projektionsoptik auf eine Projektionsebene abgebildet wird. Um beim Diaprojektor einen hohen Lichtfluss zu gewährleisten, wird die Beleuchtungsquelle in die Eingangspupille des Projektionsobjektives durch ein Kondensorsystem abgebildet. Dadurch entsteht in der Bildebene
418
10 Gebrauchsgüter
eine homogene Beleuchtung. Es sei am Rande erwähnt, dass heute alle integrierten Schaltkreise mit dieser Technologie erzeugt werden (Lithografieoptik). Filmprojektoren arbeiten nach dem gleichen optischen Prinzip wie Diaprojektoren. Bei Overheadprojektoren sind die abzubildenden Vorlagen im Gegensatz zum Diaprojektor deutlich größer (DIN A4) und werden mit Hilfe eines Umlenkspiegels projiziert, wodurch das Bild seitenrichtig aufrecht abgebildet wird. Die deshalb notwendige sehr große Beleuchtungsoptik, an die allerdings keine besondere optische Forderung gestellt wird, wird zumeist als Fresnel-Linse realisiert. Modernere Overheadprojektoren positionieren die Lampe in der Nähe der Abbildungsoptik, so dass mit einer 4fFresnel-Optik mit Reflexionsspiegel die Lichtquelle in die Eingangspupille des Projektionsobjektives abgebildet wird. Dadurch werden kompakte Overheadprojektoren möglich. Digitale Projektoren lösen derzeit die analogen Projektoren ab. 10.3.2 Digitale Projektoren Ein Beamer ist ein digitaler Projektor, der ein durch Videosignal erzeugtes Bild auf eine Projektionsfläche projiziert. Grundsätzlich können drei Varianten unterschieden werden: 1. Projektion selbstleuchtender Displays (z.B. Kathodenstrahlröhren oder LED basierte Displays oder Laser-Scannende Systeme). 2. Projektion von transmittiven Displays (z.B. LC-Display oder SLM). 3. Projektion von reflektiven Displays (z.B. DMD oder LCoS). Für den Verbraucher sind derzeit nur Beamer vom Typ 2 oder 3 interessant.
Abb. 10.12. Light-Engine eines modernen Beamers (Werkfoto: Carl Zeiss)
10.3 Bildwiedergabe
419
Grundsätzlich unterscheidet man bei modernern Beamern zwischen dem optischen Modul (bestehend aus Objektiv, Beleuchtungslinse Feldlinse und angepasstem Integrator) und der Light-Engine, die zu dem optischen Modul noch die Lampe, den Display-Chip und das Farbaufteilungsmodul (z.B. Farbrad oder dichroitischer Spiegelaufbau) hinzufügt (Abb. 10.12). Mit Beamern (Abb. 10.13) besteht auch die Möglichkeit, bewegte Bilder mit Geräten in der Größe eines Diaprojektors zeigen zu können. Moderne Präsentationen werden daher fast ausschließlich mit Beamern gezeigt.
Abb. 10.13. Beamer im Kleinformat (Größe: lxbxh: 198x148x57mm, Gewicht: 0,95 kg): Optoma EP725 mit SVGA-Auflösung und 1.100 ANSI-Lumen
Für Beamer wurde eine neue Beleuchtungstechnik entwickelt. Während beim Episkop die räumliche Kohärenz eine untergeordnete Rolle spielt, ist sie bei Beamern mit DMD-Chip von zentraler Bedeutung, um ein möglichst helles und homogen ausgeleuchtetes Projektionsbild zu erzeugen. Entscheidend war diesbezüglich die Entwicklung der sogenannten Digital Light Processing (DLP)-Technologie. Die Erfindung des Filterrades führte dazu, dass auf zwei der drei teuren DMD-Chips verzichtet werden konnte. Die einzelnen Farbauszüge werden dazu hintereinander durch das Filterrad getriggert, in den DMD-Chip eingeschrieben und so hintereinander projiziert. Durch die Trägheit des Auges entsteht so ein farbiges Bild. Drei Merkmale bestimmen derzeit im Wesentlichen die Qualität eines Beamers. Mit 6.000 h Brenndauer liegen Beamer mittlerweile im Bereich konventioneller TV-Geräte, die eine typische Lebensdauer von etwa 10.000 h aufweisen. Entscheidend bei der Auswahl der Beamer sind Auflösung und die Helligkeit des Bildes. Diese wird in ANSI-Lumen angegeben. Dazu wird die projizierte Fläche in 3 u 3 große Teilflächen zerlegt
420
10 Gebrauchsgüter
und im Zentrum jeder einzelnen Fläche der Lichtstrom in Lumen gemessen. Der Durchschnitt dieser Werte ist der Betrag in ANSI-Lumen. Der Lichtstrom ist das Produkt aus der Beleuchtungsstärke, gemessen in Lux, multipliziert mit der beleuchteten Fläche. Für eine akzeptable Projektion wird eine Beleuchtungsstärke des Projektors benötigt, die etwa um den Faktor 5 höher als die Umgebungsbeleuchtungstärke ist. Typische Beleuchtungsstärken liegen tagsüber bei weissen Wänden in der Größenordnung von 100 Lux bis 400 Lux. Daraus kann die maximale Bildfläche für einen bestimmten Beamer folgendermaßen ermittelt werden: Bildfläche = Lichtstrom / (Umgebungsbeleuchtungsstärke u 5). Im Verbraucherbereich sind derzeit etwa 1.100 ANSI-Lumen Standard, so dass Projektionsbreiten von etwa 1 m ausreichend hell ausgeleuchtet werden können, um auch bei Tageslicht noch einen akzeptablen Kontrast zu erzeugen. High-End-Geräte erreichen 4.000 ANSI-Lumen bis 10.000 ANSILumen und kommen damit bereits in die Dimension von Kinoprojektoren (etwa 20.000 ANSI-Lumen). Typische Auflösungen im Consumer-Bereich liegen zwischen 800 u 600 Pixel (SVGA-Auflösung) und 1.280 u 1.024 (SXGA) Bildpunkten. Bedingt durch die mittelfristige Umstellung auf die digitale Fernsehnorm (1.024 u 576 Pixel bzw. XGA-Auflösung 1.024 u 768 Pixel) werden künftig verstärkt Projektionssysteme mit diesen Auflösungen in den Consumermarkt vordringen. In jedem Fall werden Beamer noch kleiner, leiser, kontrastreicher und leichter als bisher werden. Kabellose Audio/Videoschnittstellen werden dafür sorgen, dass das Kino im Wohnzimmer zur Alltagserfahrung gehört. Es ist heute vorstellbar, dass mobile Computer künftig mit integrierten Beamern ausgerüstet werden. Neue Displaytechnologien (z.B. LCoS (Liquid Crystal on Silicon), OLED (Organic Light Emitting Diode)) werden auch in diesem Bereich Impulse setzen. Im Kinobereich werden mittelfristig drei bis sechs Megapixel Displays erreicht werden. Dann wird es möglich, die Filme direkt via Satellit in die Kinos zu übertragen, so dass ein Filmwechsel und der klassische Vorführer entfallen. Mit der Beamertechnologie lassen sich auch neue Fernsehapparate entwickeln. Eine Light Engine projeziert die bewegten Bilder von hinten auf eine Glaswand. In diesem Falle benötigt man keine Fernsehröhren oder Plasmabildschirme mehr (Abb. 10.14).
10.3 Bildwiedergabe
421
Abb. 10.14. Rückprojektionsfernseher (Werkfoto: Loewe/Carl Zeiss)
10.3.3 Head Mounted Devices (HMD) und Head Up Displays (HUD) Augmentierte Realität bedeutet eine erweiterte oder superponierte Darstellung der Umwelt. Derzeit werden zwei unterschiedliche Ansätze verfolgt. Auf der einen Seite werden HMD in Form von Brillen mit erweiterter Funktion in immer leichterer Form entwickelt, die auch ein stereoskopisches Sehen ermöglichen. Auf der anderen Seite projizieren HUD virtuelle Daten in Windschutzscheiben von PKW beispielsweise zum Hinweis auf Gefahren oder zur Unterstützung der Navigation. Im Auge des Betrachters entsteht in beiden Fällen eine neue Realität, die es ihm ermöglicht, schneller in gefährlichen Situationen zu reagieren (Abb. 10.15).
Abb. 10.15. Funktionsprinzip eines Head Up Display (HUD) bei BMW
Ein Head Mountes Display (HMD) besteht im Prinzip aus einem Okular, einer Strahlumlenkung und einem Display, das mittlerweile in der Regel selbstleuchtend ist. Die Strahlumlenkung kann dabei sowohl als Umlenkspiegel für sogenannte Look-Around-Systeme als auch als Strahlteiler für sogenannte See-Through-Systeme ausgelegt sein. Optisch anspruchvoll
422
10 Gebrauchsgüter
werden HMD im künftigen Consumerbereich dadurch, dass versucht werden muss, viele optische Funktionen auf möglichst wenige optische Flächen zu verteilen. Entsprechend vielfältig sind die bisher publizierten Ideen, die vom einfachen Okular bis zum Off-Axis-Spiegel mit integriertem DOE reichen. Ein Beispiel zeigt Abb. 10.16.
Abb. 10.16. Look-Around HMD (Werkfoto: Olympus)
Ein HUD ist im Prinzip ein Projektor, der große Ähnlichkeit zu einem Beamer aufweist. Im Gegensatz zu diesem ist aber die Projektionsfäche stark zur optischen Achse geneigt. Um dennoch ein scharfes Bild für den Benutzer zu produzieren, werden derzeit entweder nur einfache Bildelemente angezeigt oder aufwändige optische Systeme eingesetzt. Im Gegensatz zu Beamern ist auch der größte Teil der projizierbaren Fläche ausgeblendet, so dass die Umwelt vollständig wahrgenommen werden kann. 10.3.4 Zusammenfassung Der Bereich der Consumeroptik hat in den letzten 10 Jahren mehrere wesentliche Schritte von der klassischen Optik hin zur Photonik getan. Diese kann man wie folgt zusammenfassen: x Fotoelektronische Prozesse ersetzen fotochemische Prozesse. x Digitale Daten ersetzen analoge Bilder. x Drahtlose Datenübertragung und Handy eröffnen die 2. Generation der Gebrauchsoptik. x Diffraktive Optiken und asphärische Kunststoffoptiken werden zunehmend bei Gebrauchsoptiken Einzug finden. Für bestimmte Anwendungen (z.B. Fernrohr und Lupe) wird aber auch in Zukunft die klassische Optik eingesetzt werden.
11 Bildaufnahme und -wiedergabe
11.1 Halbleiterbildsensoren und digitale Kameras Das Herz einer modernen Kamera ist der Halbleiter-Bildsensor. Die Bildsensoren spielen in der optischen Messtechnik und industriellen Bildverarbeitung eine herausragende Rolle. Zum Beispiel werden in der Interferometrie die Interferogramme direkt mit der Kamera digitalisiert und mit geeigneten Algorithmen der Bildverarbeitung ausgewertet. Charge Coupled Devices (CCDs) wurden in den 70er Jahren erfunden und ursprünglich in Speicheranwendungen eingesetzt. Ihre Lichtempfindlichkeit wurde schnell für Bildverarbeitungs-Anwendungen nutzbar gemacht und verursachte in der Astronomie eine regelrechte Revolution. Die heutigen Bildsensoren sind optoelektronische Sensoren, die den Fotoeffekt beim Halbleiter ausnutzen. Beim Fotoeffekt löst das einfallende Photon ein Elektron aus der Gitterstruktur des Halbleiters. Folglich ist der einfallende Photonenstrom proportional zu einem Ladungsstrom (Abschn. 1.6.3.1). Das erzeugte Ladungsmuster wird während der Belichtungszeit gespeichert und schnellstmöglich ausgelesen, danach verstärkt und in ein Spannungssignal (Videosignal) umgewandelt. Aus makroskopischer Sicht messen wir mit Bildsensoren die Bestrahlungsstärke (Abschn. 1.3.1). 11.1.1 Geometrische Eigenschaften eines Bildsensors Abstrakt gesprochen ist ein Bildsensor eine M u N Matrix, bestehend aus M N Fotodetektoren, die entsprechend der eingestrahlten Lichtleistung einen Strom- oder Spannungswert je Fotodetektor liefern. Die zunächst analogen Werte werden mit einem nachgeschalteten AD-Wandler in 8, 10, 12 oder 16-Bit Werte quantisiert. Zum Abschluss müssen die digitalen Werte aus der Kamera in den Speicher des Rechners übertragen werden. Der lichtempfindliche Teil des einzelnen Fotodetektors wird in diesem Zusammenhang auch Pixel (engl. Picture Element) genannt. Die Pixel des Sensors überdecken nur einen Teil der Sensorfläche. Die Sensoren können aufgrund ihrer Geometrie eingeteilt werden. Die Größe der lichtempfindlichen Fläche wird mit 1 Zoll, 2/3 Zoll, 1/2 Zoll und 1/3 Zoll angegeben (Abb. 11.1).
424
11 Bildaufnahme und -wiedergabe
Abb. 11.1. Chip-Formate, Längeneinheit mm
Die Formatangabe des Sensors in Zoll kommt von der Zeit, in der es zur Bildaufnahme nur Fernsehröhren gab. Eine runde Aufnahmeröhre mit 1 Zoll Durchmesser (25,4 mm) hatte ein rechteckiges Fenster mit der Diagonalen von 16 mm. Diese Formatbezeichnung hat man bis heute beibehalten. Die Berandung des lichtempfindlichen Teils übernimmt im abbildenden System „Objektiv und Kamera“ die Funktion der rechteckförmigen Feldblende (FBL), die gleichzeitig die Austrittsluke (AL) ist. Mit dem Abbildungsmaßstab E c bestimmt die Austrittsluke den Ausschnitt der Szene (Eintrittsluke EL): b h (11.1) bEL FBL , hEL FBL . a C Ca Weitere wichtige geometrische Größen des Sensors sind Breite bPixel und Höhe hPixel des einzelnen Pixels und der relative Abstand dSpalte und dZeile zueinander (Abb. 11.2). Insbesondere gilt der Zusammenhang: (11.2) bFBL M ¸ dSpalte , hFBL N ¸ dZeile .
Abb. 11.2. Bildsensor mit Pixel
11.1 Halbleiterbildsensoren und digitale Kameras
425
Typische Werte finden Sie in der Tabelle 11.1. Je größer die Pixel sind, um so mehr Licht kann der Sensor einsammeln. Ein Maß für die Lichtempfindlichkeit des Sensors ist der Füllfaktor
Füllfaktor
Lichtempfindliche Fläche h ¸b Pixel Pixel . (11.3) Sensorfläche dZeile ¸ dSpalte
Auflösung eines Sensors Die räumliche Auflösung (engl. spatial resolution) des Sensors hängt von den horizontalen und vertikalen Pixelabständen ab und gibt wieder, welche Objektdetails mit dem Sensor gerade noch erkannt werden können.
Abb. 11.3. Auflösung eines Sensors
Ein Muster, bestehend aus parallelen horizontalen hellen und dunklen Streifen gleicher Breite, wird gerade dann noch erkannt, wenn das Bild der hellen und dunklen Streifen auf dem Sensor mindestens eine Spalte des Sensors belichtet. Die Breite eines hell-dunkel Linienpaars (Lp) entspricht der räumlichen Periodenlänge des Streifenmusters. Folglich muss die Linienpaarbreite mindestens zwei horizontale Pixelabstände 2dSpalte betragen (Abb. 11.3). Den Kehrwert nennt man horizontale Auflösung des Sensors:
RHa
1 2dSpalte
entsprechend RVa
1 2dZeile
.
(11.4)
Die Einheit der Auflösung wird in Lp/mm angegeben. Die Auflösung entspricht im Abtasttheorem von Shannon der größten horizontal abtastbaren Raumfrequenz, der sogenannten Nyquist-Frequenz. Die Größe 1/dSpalte
426
11 Bildaufnahme und -wiedergabe
entspricht der horizontalen Abtastfrequenz. Entsprechend gilt für die vertikale Richtung 1/dZeile. In der Objektebene hängt die Auflösung zusätzlich vom Abbildungsmaßstab C a der optischen Abbildung zwischen Objektebene und Sensorebene ab, die durch das Objektiv realisiert wird. Auflösung in der Objektebene:
RH
RHa Ca
und RV
RVa Ca
.
(11.5)
I hell I dunkel zwiI hell I dunkel schen hellem und dunklem Streifen ab. Dies beschreibt die Kontrastübertragungsfunktion. Zur Berechnung der benötigten Auflösung des Sensors bestimmen wir in horizontaler und vertikaler Ausdehnung bmin und hmin der kleinsten Struktur, die wir noch erkennen wollen. Die zugehörige Raumfrequenz lautet dann Das Objektiv schwächt zusätzlich den Kontrast K
RH
1 bmin
und RV
1 hmin
.
(11.6)
Eingesetzt in Gl. (11.5) erhalten wir unter Berücksichtigung von (11.4)
RHa
1 2dSpalte
bGF 1 hGF (11.7) , RVa bSensor ¸ bmin hSensor ¸ hmin 2dZeile
Insgesamt ergibt sich mit Gl. (11.2) die sehr nützliche Beziehung
N
bSensor b 2 GF dSpalte bmin
und M
hSensor hGF 2 dZeile hmin
.
(11.8)
Die Abb. 11.4 zeigt einen typischen Barcode, wie er aus dem alltäglichen Leben bekannt ist.
Abb. 11.4. Gesichtfeld mit Barcode
11.1 Halbleiterbildsensoren und digitale Kameras
427
Um einen Strichcode zu lesen, muss man die Breite bmin des schmalsten weißen oder schwarzen Balkens im Barcode bestimmen. Um die Sensorauflösung zu berechnen, ist es notwendig, das Gesichtsfeld (GF) und das verwendete Chip-Format zu kennen. Das GF ist der Bereich der Szene, den die Kamera aufnehmen kann. Tabelle 11.1. Typische Werte für gängige Sensoren N 640 768 1281 3072
bSensor mm 4,8 6,4 8,8 12,6
dH µm 7,5 8,3 6,9 4,1
R´H Lp/mm 67 60 72 122
M 480 572 1072 2048
hSensor µm dV mm 3,6 7,5 4,8 8,4 6,6 6,2 9,6 4,6
R´V Lp/mm 67 60 80 108
Wenn die erforderliche Sensorauflösung keiner Standardsensorauflösung entspricht, wird eine Kamera gewählt, deren Sensorauflösung größer ist. 11.1.2 CCD-Sensor Der Name des CCD-Sensors, kurz CCD, kommt vom englischen Wort „Charge-Coupled Device“ und beschreibt den Transportmechanismus im Sensor. Ursprünglich wurde 1970 der CCD-Chip als Speicherchip erfunden, seine optischen Eigenschaften wurden früh erkannt und in der Bildverarbeitung ausgenutzt. In der Astronomie führte dies zu revolutionären Entwicklungen; der CCD-Sensor verbesserte die Lichtempfindlichkeit der Teleskope um fast zwei Zehnerpotenzen. Der Fotoeffekt ist der grundlegende physikalische Effekt für die Detektion der Photonen im CCD-Sensor. Die Elektronen der Atome im Siliciumkristall befinden sich in Energiebändern (Abschn. 1.6.1). Das untere Energieband wird Valenzband genannt und das obere Band Leitungsband. Die meisten Elektronen befinden sich im Valenzband, können aber thermisch oder durch Absorption eines Photons angeregt werden und in das Leitungsband übergehen (Abb. 11.5). Die für diesen Übergang benötigte Energie beträgt für Silicium 1,11 eV. Ist einmal das Elektron in diesem Leitungsband, kann es sich frei im Siliciumkristallgitter bewegen. Es hinterlässt ein „Loch“ im Valenzband, das sich wie ein positiver Ladungsträger verhält. In Abwesenheit eines externen elektrischen Felds kann das Elektron-Loch-Paar schnell wieder rekombinieren. In einem CCD-Chip wird ein elektrisches Feld angelegt, das diese Rekombination verhindern soll.
428
11 Bildaufnahme und -wiedergabe
Abb. 11.5. Innerer Fotoeffekt
Thermisch erzeugte Elektronen sind nicht unterscheidbar von optisch erzeugten Elektronen. Die thermisch erzeugten Elektronen bilden eine Rauschquelle, die als thermisches Rauschen oder Dunkelstrom bezeichnet wird. Deshalb ist es wichtig, dass der CCD-Chip aktiv oder passiv (Kühlkörper) gekühlt wird, um die Anzahl der thermisch erzeugten Elektronen gering zu halten. Die Photonenenergie 1,11 eV entspricht der Energie des Lichts mit einer Wellenlänge von 1,12 µm. Oberhalb dieser Wellenlänge wird das Silicium transparent und die Si-CCDs werden lichtunempfindlich (Siehe Abb. 1.70). Eimer-Analogie Die Funktionsweise eines CCD-Imagers kann anschaulich mit Hilfe einer Analogie, kurz Eimer-Analogie, erklärt werden (Abb. 11.6). Eine Anzahl von Eimern (= Pixel) ist in einer Ebene (= Sensorebene) gleichmäßig auf parallelen Förderbändern (Spalten des Sensors) aufgestellt. Die Eimer sammeln den Regen (Photonen). Die Förderbänder stehen still während der Regen in die Eimer fällt (Belichtungszeit). Während dieser Zeit werden die Eimer sich langsam füllen. Wenn der Regen einmal aufhört (Kameraverschluss ist geschlossen), beginnen die Förderbänder sich zu bewegen und die gefüllten Eimer werden zu einem Messzylinder (elektronischer Verstärker) am Rande der Ebene (an der Kante des CCDs) befördert und entleert.
11.1 Halbleiterbildsensoren und digitale Kameras
429
Abb. 11.6. Eimer Analogie
Aufbau eines CCD-Sensors Die lichtempfindliche Fläche des CCDs wird in der Bildebene des abbildenden Systems (Objektiv, Mikroskop, Teleskop) positioniert. Ein digitales Bild ist das abgetastete Intensitätssignal, umgewandelt in elektrische Ladungen. Nach der Belichtung wird das Muster ausgelesen. Entsprechend der Ladungen der einzelnen Pixel erhält man aus dem Signal des seriellen Registers über den auf dem Chip mit integrierten Vorverstärker ein zeitabhängiges elektrisches Signal. Elektrische Verbindungen führen das Signal an den Rand des Chips und von dort als Verbindung zur Außenwelt über eine Serie von Bond Pads, die über dünne Golddrähte mit den Verbindungspins verbunden sind (Abb. 11.7).
Abb. 11.7. Prinzipieller Aufbau der Hardware eines CCD-Imagers
430
11 Bildaufnahme und -wiedergabe
CCDs werden auf Siliciumwafern mithilfe derselben fotolithografischen Methoden wie Computerchips hergestellt. Wissenschaftliche CCDs sind sehr groß, nur einige passen auf einen Wafer. Dies ist ein Grund, warum sie so kostspielig sind. Ein spezieller CCD, der von Philips hergestellt wurde, füllt einen ganzen 6 Zoll Wafer aus! Dies ist der größte jemals produzierte integrierte Schaltkreis. Im Konsumerbereich werden aus Kostengründen die CCDChips immer kleiner, die gebräuchlichste Größe ist 1/3 Zoll. Funktionsprinzip des Ladungstransports Je nach Bauart des CCDs bilden drei oder vier Schieberegisterzellen eine Grundeinheit des Schieberegisters. Man spricht auch von 3-Phasen- oder 4-Phasen-CCD (Abb. 11.8).
Abb. 11.8. Das Diagramm zeigt oben einen kleinen Ausschnitt (einige Pixel) vom Abbildungsbereich eines 3-Phasen-CCDs. Dieses Muster wiederholt sich. Die horizontalen Elektroden bilden Pixel in vertikaler Richtung und dienen zum Transport der Ladung während der Auslesezeit. Im seriellen Schieberegister werden die Ladungen horizontal zum Verstärker transportiert
Beim Progressive-Scan-CCD-Sensor wird durch ein 3-Phasen-Schieberegister gleich ein Vollbild komplett ausgelesen. Hingegen wird beim Standard-CCD-Sensor (oder Video-CCD-Sensor) das Bild in zwei
11.1 Halbleiterbildsensoren und digitale Kameras
431
Halbbildern mittels eines 4-Phasen-Schieberegisters ausgelesen, jeweils jede zweite Zeile auf einmal. Die Gründe zur Aufteilung in Halbbilder liegen in der traditionellen Fernsehtechnik. Ein Bildsensor, der das ganze Bild (Frame) während eines Belichtungsintervalls ausliest, wird Progressive-Scan-Bildsensor oder non-interlaced Bildsensor genannt. Der zweite gebräuchliche Sensor wird interlaced Sensor oder Video-Sensor genannt, er liest im ersten Zyklus das erste Halbild (Field 1) und im zweiten Zyklus das zweite Halbbild (Field 2) aus. Interlaced Kameras erzeugen ein analoges Standard-Video-Signal nach der europäischen CCIR-Norm oder der US-Norm RS170. Entsprechend werden beim Europäischen PAL- wie beim amerikanischen Standard-NTSC-Farbfernsehen Interlaced Bildschirme verwendet, wo das Bild auf dem Bildschirm durch Anzeigen von zwei Halbbildern erzeugt wird. Jede dritte Elektrode ist untereinander verbunden. Am Rand des Chips liegen die Bus-Leitungen, welche die zusammengehörigen Elektroden verbinden. Die Kanalisolierung besteht jeweils aus Silicium, das mit Bor hochkonzentriert dotiert ist. Am unteren Rand des Bildbereiches ist das serielle Schieberegister. Dies besteht auch aus einer Gruppe von kleinen Oberflächenelektroden mit jeweils drei Elektroden für jede Spalte des Bildbereichs. Photonen, die in das CCD eintreten, erzeugen Elektron-Loch-Paare. Die Elektronen werden dann in Richtung des positivsten Potenzials im umgebenden Feld fortbewegt, wo sie sich zu Ladungspaketen vereinigen (Abb. 11.9). Jedes Paket entspricht der gesammelten Ladung eines Pixels.
Abb. 11.9. In dieser und in den folgenden Abbildungen bedeutet eine hellgraue Elektrode, dass dort ein positives Potenzial anliegt, hingegen liegt an den schwarzen ein negatives Potenzial an
432
11 Bildaufnahme und -wiedergabe
In wenigen Schritten wird das Prinzip des Transports von Ladungen im CCD erklärt. Hierzu wird das Eimerkettenmodell für eine reale elektronische Struktur herangezogen. Die Ladung wird entlang des Förderbands durch Modulieren der Spannungen auf den Elektroden bewegt, die sich auf der Oberfläche des CCDs befinden (Abb. 11.10).
11.1 Halbleiterbildsensoren und digitale Kameras
433
Abb. 11.10. Die verschiedenen Bilder zeigen den zeitlichen Potentialverlauf im CCD. Unter der Elektrode mit hoher Spannung sammeln sich die Ladungen. Jedes Bild zeigt einen Takt des ganzen Transportprozesses. Der graue Balken im rechten Bild zeigt das jeweils aktive Zeitfenster
Der auf dem Chip integrierte Verstärker erfasst alle Ladungspakete, wie sie vom Ausgang des seriellen analogen Registers geliefert werden. Die Ladung wird dann in der letzten Elektrode des seriellen Registers gesammelt (Abb. 11.11). Dieser Kondensator hat eine sehr kleine Kapazität (< 0,1 pF). Der Messprozess des Ausgangssignals beginnt damit, dass an der Sammelstelle der negativen Ladungen (Kondensator am Ausgang des seriellen Analogregisters) mit einem Resetsignal über den Reset-Transistor RT die vom vorigen Pixel noch übrigen Ladungen beseitigt werden. Es dauert dann einige Mikrosekunden, bis die externe Schaltung den Referenzwert des Potentials Uout übernommen hat. Uout ist jetzt auf dem Referenzpotential. In den Auslesekondensator wird dann die Ladung eines Pixels übertragen. Die negativen Ladungen des Pixels bewirken einen tieferen Wert von
434
11 Bildaufnahme und -wiedergabe
Abb. 11.11. Ausleseschaltung: OT Ausgabetransistor, RT Resettransistor
Uout. Der Spannungssprung in Uout entspricht einigen mV pro Elektron. Von der externen Schaltung wird Uout in einigen zehn Mikrosekunden abgetastet. Die Differenz von Signalpegel zum Referenzpegel ist proportional zur gesammelten Ladung. 11.1.3 Architektur eines CCD Die verschiedenen Typen von CCD-Sensoren unterscheiden sich hinsichtlich ihrer Halbleiter-Architekturen, wie sie die Ladungsträger zwischenspeichern oder abtransportieren. Ein CCD hat drei Grundfunktionen: 1. Ladungssammlung, 2. Ladungstransport, 3. Ladungswandlung und Verstärkung in ein messbares Spannungssignal. Die oben genannten Grundfunktionen sind auf dem Sensor-Chip in verschiedenen Bereichen des Chips lokalisiert. Die Ladungssammlung erfolgt im lichtempfindlichen Bildbereich (image area). Der sogenannte Speicherbereich (store area) wird durch optisches Abdecken lichtunempfindlich. Er dient zum Transport der Ladung. In einem kleinen Bereich des Chips findet man die integrierte Schaltung zur Ladungswandlung und Verstärkung. Die Unterscheidung der Sensoren erfolgt über die verschiedenen technischen Realisierungen des Ladungstransports. Die verwendete CCDArchitektur hängt von der Aufgabenstellung ab.
11.1 Halbleiterbildsensoren und digitale Kameras
435
Es gibt im wesentlichen drei Grundtypen: x Full-Frame-Transfer-CCD x Frame-Transfer-CCD x Interline-Transfer-CCD. Full-Frame-Transfer-CCD (FFT-CCD) Bei einem FFT-CCD (Abb. 11.12) wird derselbe Bereich zur Ladungssammlung wie auch zum Ladungstransport verwendet. Mittels eines externen mechanischen oder elektronischen Shutters muss sichergestellt werden, dass während der Transportzeit kein Licht auf den Sensor fällt. Ansonsten entstehen durch die Nachbelichtung des Sensors sogenannte Smear-Effekte.
Abb. 11.12. FFT-CCD mit Ausleseregister
Seine Anwendung findet der FFT-CCD in der Astronomie und Spektroskopie. In dieser Technologie können sehr große hochauflösende Sensoren beispielsweise mit 7.000 u 9.000 Pixel gefertigt werden. Ein entscheidender Nachteil ist die große Auslesezeit. Durch Aufteilung des Bildbereiches in beispielsweise vier Teilbereiche mit jeweils eigenem horizontalem Schieberegister und Verstärker kann die Auslesegeschwindigkeit um einen Faktor 4 erhöht werden. Bei sehr großen Sensoren werden bis zu 32 parallele Ausleseregister verwendet. Dabei können die Kennlinien der Verstärker leicht voneinander abweichen. Frame-Transfer-CCD (FT-CCD) Beim FT-CCD (Abb.11.13) sind die Bild- und Speicherbereiche in zwei gleich großen zusammenhängenden CCD-Blöcken angeordnet. Die beiden
436
11 Bildaufnahme und -wiedergabe
Abb. 11.13. FT-CCD
Bereiche sind fast identisch aufgebaut. Der Speicherbereich wird durch eine zusätzliche Metallschicht abgedeckt und somit lichtunempfindlich. Die gesamte Sensorfläche, im wesentlichen Bild- und Speicherbereich, ist etwa doppelt so groß wie die des FFT-CCDs. Die gesamte Ladung wird innerhalb vonetwa 500 µs in das Speicherregister geschoben. Die SmearEffekte können nur in dieser Übertragungszeit entstehen und sind folglich wesentlich geringer als beim FFT-CCD. Ein externer Shutter wird nicht unbedingt benötigt. Ferner können unabhängig voneinander der Bildbereich belichtet und der Speicherbereich ausgelesen werden, dies führt zu einer wesentlich höheren Auslesegeschwindigkeit des Sensors als beim FFT-CCD. Interline-Transfer-Sensor (IT-CCD) Der IT-CCD (Abb. 11.14) ist vertikal in Belichtungs- und Speicherbereiche unterteilt. Die vertikalen Speicherbereiche sind immer als CCD-Schieberegister, ausgeführt, hingegen bestehen die vertikalen Belichtungsbereiche oft aus Fotodioden. In diesem Fall spricht man auch von CCPDs (charge coupled photodiodes). Die vertikalen CCD-Speicherregister und die vertikal angeordneten Dioden sind durch ein Transfer-Gate (Schalter) getrennt.
11.1 Halbleiterbildsensoren und digitale Kameras
437
Nach der Integrationszeit (Belichtungszeit) wird die Ladung in ca 1 µs in das abgedunkelte vertikale CCD-Speicherregister übertragen Die Ladungen im vertikalen Speicherbereich können dann zeilenweise in das horizontale CCD-Ausleseregister geschoben werden. Es gibt die Möglichkeit, die Schieberegisterzellen mit zwei, drei oder vier Elektroden zu betreiben.
Abb. 11.14. Interline-Transfer-CCD-Imager
Beim IT-CCD ist die lichtempfindliche Fläche nur ein kleiner Teil des gesamten Pixels, so dass der Füllfaktor nur ca 20% beträgt. Dies beeinträchtigt die gesamte Lichtempfindlichkeit des Sensors und seine Auflösung. Abhilfe liefert eine Plankonvex-Linse direkt auf jedem Sensorelement. Die Linse soll das Licht, welches ohne die Linse auf den lichtunempfindlichen Teil des Sensorelements fallen würde, in den lichtempfindlichen Teil umlenken. Dadurch erreicht man eine Empfindlichkeitssteigerung um ca. einen Faktor zwei. Der Vorteil dieser Architektur ist die hohe Auslesegeschwindigkeit. Der Smear-Effekt ist etwas ausgeprägter als beim FT-CCD, da die vertikalen CCD-Schieberegister seitlich Streulicht einfangen. Frame-Interline-Transfer CCD (FIT-CCD) Die Streulichtproblematik des IT-CCD kann abgemildert werden, indem man eine Kombination von FT-CCD und IT-CCD verwendet, wodurch die vertikalen Transferregister schnell nach unten in einen abgedeckten Speicherbereich entleert werden. Diese Architektur wird Frame-InterlineTransfer-CCD genannt (Abb. 11.15).
438
11 Bildaufnahme und -wiedergabe
Abb. 11.15. Frame-Interline-Transfer-CCD
11.1.4 Eigenschaften eines CCD-Imagers Quantenausbeute Die CCD-Imager, die viel im Konsumerbereich Verwendung finden, werden elektrodenseitig belichtet, d. h. von vorne (Abb.11.16). Aufgrund der Reflexionen an der Luft-Polysilicium-Grenzschicht und der Absorption in den Elektroden besitzen diese Sensoren eine sehr schlechte Blau-Empfindlichkeit. Obwohl bei diesen Sensoren nicht alle einfallenden Photonen ein Elektron erzeugen, besitzen sie eine sehr viel größere Empfindlichkeit als das menschliche Auge. Bei Interline-Transfer-CCDs tritt dieser Effekt nicht auf, wenn Fotodioden verwendet werden. Das Verhältnis der Zahlen von einfallenden Photonen nph zu erzeugten Elektronen ne bezeichnet man als Quanteneffizienz K, sie hängt stark von der Wellenlänge O ab.
K (O )
ne nph (O )
(11.9)
11.1 Halbleiterbildsensoren und digitale Kameras
439
Zwischen der Quanteneffizienz und der absoluten spektralen Empfindlichkeit des CCDs besteht der Zusammenhang (Abschn. 1.6.3.1)
R (O )
I ph
)e
OK (O ) ,
(11.10)
wobei )e die eingestrahlte Strahlungsleistung/Pixel bezeichnet und Iph den Photostrom. Bei der theoretisch bestmöglichen Quantenausbeute K = 1 erhalten wir eine lineare Wellenlängenabhängigkeit.
Abb. 11.16. Von vorne beleuchteter, dicker CCD-Sensor
Ähnlich wie bei der Vergütung von Linsen können mittels Antireflexbeschichtungen Reflexionsverluste deutlich verringert werden. Der Reflexionsgrad bei senkrechtem Einfall ergibt sich aus den FRESNELschen Gleichungen zu
U (O )
§ nt (O ) ni (O ) · ¨ n (O ) n (O ) ¸ © t ¹ i
2
(11.11)
wobei ni und nt die Brechungsindizes vor und hinter der Grenzfläche sind. Der Übergang Luft-Glas (n = 1,46) besitzt einen Reflexionsgrad von ca. 3,5%, während die Grenzfläche zwischen Luft-Silicium (n = 3,6) ca. 32% zurückreflektiert. Mit einer einzigen dünnen dielektrischen Schicht können schon gute Ergebnisse erzielt werden. Bei der Wellenlänge O0 erhalten wir eine vollständige Unterdrückung der Reflexionen, wenn die Schichtdicke d und der Brechungsindex n die Bedingungen
n
nLuft nSi , d
O0 4n
(11.12)
erfüllen. Bei anderen Wellenlängen erhalten wir einen geringeren Reflexionsgrad als ohne Antireflexionsschicht. Als Wellenlänge O0 wird typischerweise 550 nm gewählt, was in der Mitte des sichtbaren Spektrums liegt und wo das menschliche Auge am empfindlichsten ist.
440
11 Bildaufnahme und -wiedergabe
Abb. 11.17. Typischer Aufbau eines rückseitig beleuchteten CCDs
Antireflexionsbeschichtungen erweisen sich als sehr effektiv bei rückseitig beleuchteten dünnen CCD-Sensoren (Abb. 11.17), hingegen bei vorderseitig beleuchteten dicken CCD Sensoren ist dieser Effekt nicht so ausgeprägt (Abb. 11.18).
Abb. 11.18. Quantenausbeute a) dicker Sensor von vorne beleuchtet, b) dünner Sensor von hinten beleuchtet
Blooming Bei sehr starker Belichtung der Pixel ist es möglich, dass der Ladungsspeicher des einzelnen Pixels für die erzeugte Ladung voll wird und sogar überläuft. Die Ladung fließt dann in benachbarte nicht überfüllte Ladungsspeicher ab. Dies erfolgt in Richtung des CCD-Speicherregisters und äußert sich im Bild in vertikalen hellen Streifen (Abb. 11.19).
11.1 Halbleiterbildsensoren und digitale Kameras
441
Abb. 11.19. Anti-Blooming durch zusätzlichen Kanal (Quelle unbekannt)
Dieser sogenannte Blooming-Effekt kann kameraseitig vom Anwender nur durch Verkürzung der Belichtungszeit beeinflusst werden. Es gibt herstellerseitig verschiedene Ansätze das Blooming zu mindern,z. B.durch
x Verwendung eines optimierten Taktschemas (anti-blooming-clock), um den Ladungsüberlauf zu kontrollieren. x Verwendung eines zusätzlichen Abflusskanals (overflow-drain), der die überschüssige Ladung aufnimmt und abtransportiert. Schmiereffekt (Smear) Trifft Licht hoher Intensität auf den Sensor während der Transportbereich aktiv ist, wird dieses Lichtsignal als vertikales Störsignal im Ausgangssignal sichtbar. Das Schmiersignal verhält sich zur Lichtintensität immer proportional zur Lichtintensität und ist abhängig von der Wellenlänge und unabhängig von der Belichtungszeit. Frame Transfer CCD Beim FT-CCD wird der Smear dadurch erzeugt, dass auch Licht auftrifft, während das erzeugte Bild vom Belichtungsbereich in den Speicherbereich geschoben wird. Ist tint die Belichtungszeit und ttr die Transferzeit vom Belichtungsbereich in den Speicherbereich, so gilt
Smr
1 ttr . 10 tint
(11.13)
442
11 Bildaufnahme und -wiedergabe
Interline Transfer CCD Bei IT-CCD wird Smear erzeugt durch gestreute Photonen, die in das abgedeckte vertikale Schieberegister eintreten anstatt in den Fotodioden gesammelt zu werden. Typische Werte des Sensors liegen bei 0,01%. Durch Absenkung der Lichtintensität während der Transferzeit lässt sich das Schmiersignal reduzieren. Mikrolinsen reduzieren das Streulicht im vertikalen CCD-Register.
Abb. 11.20. Der Sensor sollte derart belichtet werden, dass obiges Bild auf dem Sensor entsteht. Jeder rechteckige Bereich sollte aus mindestens 1000 Pixels bestehen. Die mittlere Intensität jedes Rechtecks ist die Grundlage der Berechnung nach Gl. (11.14)
Smr
U Smear U Dark U Spot U Dark
(11.14)
Der Schmiereffekt tritt beim asynchronen dynamischen Kamerabetrieb und bewegten Objekten am stärksten auf (Abb. 11.20). Sensordefekte In der Regel hat jeder Sensor einige defekte Pixel, da es sehr schwierig ist, einen fehlerfreien Sensor zu fertigen. Demzufolge ist der Preis für einen nahezu fehlerfreien Sensor sehr hoch. Um die defekten Pixel erkennen zu können, muss der Sensor homogen beleuchtet werden. Dark Column (Dunkle Spalten) Dunkle Spalten entstehen, wenn ein CCD-Speicher-Register defekt ist und die Ladung nicht abtransportiert werden. Es können nur noch diejenigen
11.1 Halbleiterbildsensoren und digitale Kameras
443
Pixel einer Spalte ausgelesen werden, die in Ausleserichtung vor dem Defekt liegen (Abb. 11.21). Hot Spots sind Pixel, die einen zu hohen Dunkelstrom liefern. Sie äußern sich bei schwacher Beleuchtung als helle Pixel. Ihre Helligkeit nimmt linear mit der Belichtungszeit zu. Hot Spots können zu hellen streifenförmigen Flecken ausarten. Weitere Defekte im digitalen Bild können durch eine fehlerhafte Ausleseelektronik verursacht werden. Dies kann sich dadurch äußern, dass die erste ausgelesene Zeile dunkel ist. Sensorkorrekturen Im wissenschaftlichen Bereich müssen vor der eigentlichen Messung drei verschiedenartige Kalibrierungsbilder mit verschiedenen Belichtungen der Kamera aufgenommen werden, die zur Rauschkorrektur verwendet werden (Abb. 11.21). Bias-Frame Ein Bias-Frame ist ein Bild, welches bei geschlossenem Verschluss mit Belichtungszeit Null aufgenommen wird. Es stellt das Nullsignal der CCD dar, welches die Kameraelektronik liefert. Das Nullsignal besteht nur noch aus dem Ausleserauschen. Entsprechend besteht die Bias Region des CCDs aus normalen Pixeln, die abgedeckt werden, damit sie kein Licht erhalten und somit als Nullreferenz dienen. Flat Field Einige Pixel in einem CCD werden empfindlicher sein als andere. Außerdem können Staub und andere Verschmutzungen im Strahlengang die Empfindlichkeit reduzieren. Diese Schwankungen in der Empfindlichkeit über die Chipfläche müssen kalibriert werden, um kein zusätzliches Rauschen zu erhalten. Bei homogener Beleuchtung wird ein Bild aufgenommen, das durch das Originalbild pixelweise dividiert wird. Dark Frame
Bei geschlossenem Verschluss wird mit der Belichtungszeit der Originalmessung ein Bild aufgenommen. Dieses wird vom Originalbild abgezogen, um ein dunkelstromfreies Bild zu erhalten. Bei wissenschaftlichen Kameras ist dies nicht nötig, da der Chip durch aktive Kühlung einen vernachlässigbaren Dunkelstrom liefert.
444
11 Bildaufnahme und -wiedergabe
Abb. 11.21. Das entrauschte Bild erhält man durch algebraische Verknüpfung der verschiedenen Rauschbilder
Pixel Binning Pixel Binning (Abb. 11.22) ist ein Taktschema, das verwendet wird, um die von mehreren benachbarten CCD-Pixeln gesammelte Ladung zusammenzufassen zu einem größeren Ladungspaket. Die verwendeten CCD-Register müssen eine entsprechende große Ladungskapazität besitzen, damit bei der Summation der Ladungen keine Sättigung erreicht wird. Dadurch wird das Ausleserauschen reduziert, das Signal-Rausch-Verhältnis verbessert und die Bildauslesefrequenz erhöht. Der Dunkelstrom wird durch Pixel-Binning nicht beeinflusst, er kann nur durch Kühlen reduziert werden.
Abb. 11.22. Pixel-Binning eines 2 u 2 Bereiches: Durch Pixel-Binning eines Bereiches von vier benachbarten Pixeln ensteht ein größeres zusammenhängendes Pixel, das auch Superpixel genannt wird. Das Signal-Rausch-Verhältnis wird dadurch um einen Faktor vier gesteigert, jedoch die Auflösung um einen Faktor zwei verringert
11.1 Halbleiterbildsensoren und digitale Kameras
445
Rauschquellen Ein CCD-Sensor oder eine CCD-Kamera besitzt verschiedene Rauschquellen, die das Signal in Abhängigkeit von der Betriebsart verschlechtern können. Die Qualität des Signals wird über das Signal-Rausch-Verhältnis
SNR 10log
nsignal nnoise
10log
Anzahl der Signal-Elektronen (11.15) Anzahl der Rausch-Elektronen
angegeben. Das SNR liegt bei neuen IL-CCD Sensoren bei ca. 75 dB. Die Anzahl der Signal-Elektronen nsignal
E t AK hf
(11.16)
hängt von der Bestrahlungsstärke E, der Photonenenergie Eph = h f, Belichtungszeit t, Pixelfläche A, und dem Quantenwirkungsgrad K ab. Die Anzahl der Rausch-Elektronen kann auf verschiedene Rauschquellen verteilt sein. Photonenrauschen (Photon Noise) Das Photonenrauschen ist auch unter Schrot-Rauschen (Shot Noise) bekannt. Die Ursache liegt darin, dass die Photonen in nicht deterministischer Weise auf das CCD treffen. Sie genügen der Poisson-Verteilung und liefern ein zur Wurzel der Anzahl der Signal-Elektronen proportionales Rauschen:
V shot
ne K .
(11.17)
Dies kann mit der Eimer-Analogie veranschaulicht werden. Beide, Regentropfen und Photonen treffen diskret, unabhängig und zufällig in den Eimer bzw. auf das Pixel. Dieses Verhalten wird durch die Poisson-Verteilung beschrieben. Falls die Eimer klein sind und wenig Regen fällt, werden einige Eimer nur ein oder zwei Tropfen enthalten, manche sogar gar keine. Regnet es hingegen lange genug werden alle Eimer gleich voll werden. Bei kurzem Nieselregen (kurze Belichtungszeit) entstehen große Differenzen. Reset-Rauschen (Reset Noise, kTC Noise) In einem CCD-Sensor wird typischerweise das Ladungssignal in ein Spannungssignal umgewandelt. Dazu wird die Ladung jedes Pixels in einem Kondensator C gesammelt und dann über einen Widerstand zum Referenzwert entladen. Das thermische Rauschen des Widerstands verursacht eine Schwankung im Referenzspannungssignals des FET.
446
11 Bildaufnahme und -wiedergabe
Verstärkerrauschen Das Verstärkerrauschen setzt sich im wesentlichen aus zwei Rauschanteilen zusammen, dem weißen Rauschen (white noise, Johnson noise) und dem Funkel-Rauschen (flicker noise, 1/f noise). Beide zusammen bilden das Ausleserauschen (Readout Noise) des CCDs. Weißes Rauschen: Beide, sowohl der Reset-FET als auch AusgangsFET, erzeugen durch thermische Bewegung im Kanal des FET wie ein Widerstand thermisches Rauschen mit großer Bandbreite. Das Ausleserauschen begrenzt grundsätzlich die Eigenschaften des Sensors, da es immer vorhanden ist. Wissenschaftliche CCDs besitzen ein Ausleserauschen von 2 bis 3 Elektronen rms. Durch Kühlung und langsameres Auslesen des CCD-Sensors kann das Rauschen auch für große Pixelkapazitäten reduziert werden. Die untere Grenze wird von den thermisch erzeugten Elektronen im Ausgabeverstärker verursacht, die ein kleines Rauschspannungssignal bewirken. Es kann reduziert werden, indem der Ausgabeverstärker abgekühlt oder seine elektronische Bandbreite reduziert wird.
'Q C
4kT B g
(11.18)
'Q mittlerer Fehler der gemessenen Ladung, C Eigenkapazität der Verstärkers, B Bandbreite der Ausgangsstufe, g Transconductance des Verstärkers, k Boltzmann-Konstante, T absolute Temperatur. Reduzieren der Bandbreite bedeutet Verringerung der Auslesegeschwindigkeit. Einen größeren Effekt bewirkt die Reduktion der Messkapazität. Neure Entwicklungen setzen an dieser Stelle an. Funkel-Rauschen: Das starke Funkelrauschen hängt teilweise mit den Störstellen in der Isolator-Halbleiter Zwischenschicht zusammen. Je höher die Auslesegeschwindigkeit, desto geringer ist das Funkelrauschen. Dunkelstromrauschen (Dark Current Noise) Das Dunkelstromrauschen wird im CCD von thermisch erzeugten Elektronen hervorgerufen und kann prinzipiell durch Abkühlen des CCDs reduziert werden. Freie Elektronen können in einem Pixel entweder durch thermische Bewegung der Siliciumatome oder durch Absorption von Photonen erzeugt werden. Die erzeugten Elektronen können nicht nach ihrem Entstehungsprozess unterschieden werden. Das Dunkelstromrauschen kann durch Abkühlen des CCDs reduziert werden und sogar verschwinden. In der Astronomie eingesetzte wissenschaftliche Kameras werden normalerweise mit flüssigem Stickstoff gekühlt, dabei fällt der Dunkelstrom in einen Bereich unter ein Elektron pro Pixel pro Stunde, es entsteht praktisch kein Dunkelstrom. Bei thermoelektrisch gekühlten wissenschaftlichen Kameras wie sie
11.2 Kamera-User-Interface
447
beispielsweise in der Flureszenzmikroskopie verwendet werden, ist noch ein merklicher Dunkelstrom vorhanden. Das Dunkelstromrauschen besitzt einen pixelabhängigen Anteil der mittels einer Dark-Field-Messung beseitigt werden kann. Durch die Subtraktion des Dark-Field-Bildes vom Originalbild wird der statistische Anteil des Dunkelstroms nicht beeinflusst, er ist wie das Schrot-Rauschen proportional zum Quadrat des Dunkelstroms:
V dark
ndark .
(11.19)
Pixelempfindlichkeitsschwankungenen Durch Unreinheiten im Silicium und durch Herstellungsfehler können einige Pixel eine höhere Empfindlichkeit besitzen als ihre Nachbarn (Pixel Response Non-Uniformity (PRNU)). Der Effekt hängt linear mit dem Ausgangssignal zusammen und liegt in der Größenordung von 1% bis 2% des Ausgangssignals. Mittels einer Flat-Field-Messung können die Empfindlichkeitsschwankungen durch Kalibrierung entfernt werden. Die Subtraktion des Flat-Field-Bildes erhöht jedoch das Schrot-Rauschen um einen Faktor 2 . Zusammenwirken der Rauschquellen Da alle Rauschquellen zueinander unkorreliert sind, gilt
V noise
2 2 2 2 V photon V read V dark V PRNU
(11.20)
Wurde durch Kalibrierung die PRNU entfernt, dann gilt
V noise
2 2 2 V photon V read V dark
(11.21)
In professionellen Systemen ist der Dunkelstrom meist vernachlässigbar. Die Gleichung zeigt dann, dass das Ausleserauschen nur bei schwacher Beleuchtung von Bedeutung ist. Bei starker Beleuchtung dominiert das Photonenrauschen, und das Signal-Rausch-Verhältnis ist proportional zur Wurzel des Quantenwirkungsgrads.
11.2 Kamera-User-Interface Der Sensor liefert zunächst nur ein verstärktes Spannungssignal, welches das räumlich digitalisierte Bild darstellt. Zur Übertragung des Bildes in einen Rechner sind verschiedene Verfahren möglich.
448
11 Bildaufnahme und -wiedergabe
Die konventionelle Art ist mittels einer PCI-Karte, genannt Framegrabber. Diese Karte hat die Aufgabe, das Signal aus der Kamera auszulesen und so aufzubereiten, dass der Rechner im Endzustand ein digitales Abbild der Ladungsverteilung des CCD-Sensors im seinem Speicher enthält. Werden die Grauwerte in der Kamera A/D gewandelt, spricht man von einer digitalen Kamera, bei Digitalisierung in der Framegrabber-Karte von analoger Kamera oder Videokamera. Ein großes Anwendungsproblem sind die vielfältigen Möglichkeiten der Wahl von Kamera und Framegrabber und das damit verbundene Handling des Kartentreiber. Ein Ansatz wurde mit Camera-Link versucht, hier wird die digitale Schnittstelle zwischen Kamera und Framegrabber standardisiert. Aufgrund der relativ hohen Kosten wird diese Variante für Hochgeschwindigkeitsanwendungen benutzt. Eine Low-Cost Variante bietet die Firewire-Schnittstelle IEEE 1394 des PC, die heute oft standardmäßig auf den Boards vorhanden ist. Es handelt sich eigentlich um ein Bussystem, ähnlich wie USB mit einer maximalen Übertragungsrate, die sich entsprechend der Anzahl der angeschlossenen Kameras runterteilt. Aufgrund dieses Protokolls wird nur ein gewisser Satz von Kamerabefehlen mit standardisierten Schnittstellen-Treibern (DCAM kompatibel) unterstützt. In vielen Fällen ist es nützlich, den vom Kamerahersteller bereitgestellten Treiber zu verwenden, um alle Eigenschaften der Kamera ausnutzen zu können.
11.3 Bildverarbeitung In den allermeisten Fällen will man das digitale Bild nicht nur auf dem Bildschirm darstellen oder ausdrucken. Vielmehr muss das digitale Bild weiterverarbeitet werden um eine gewünschte Bildqualität zu erhalten oder gewisse Informationen herauslesen zu können. Dieses Gebiet fasst man im weitesten Sinne unter digitaler Bildverarbeitung zusammen. Je nach Anwendungsgebiet, beispielsweise in der Automatisierungstechnik, Medizintechnik oder optischen Messtechnik sind die Ausrichtungen der speziellen Algorithmen verschieden. Jedoch gibt es eine Reihe von Methoden, die in fast allen Arbeitsgebieten Verwendung finden. Unter einem digitalen Grauwertbild der Quantisierungstiefe B versteht man eine Matrix
I (m, n ) 0, !, L 1 , m 0, !, M 1 , n 0, !, N 1
(11.22)
11.3 Bildverarbeitung
449
mit M Zeilen und N Spalten. Die Anzahl L der verschiedenen Graustufen B ist gewöhnlich ein Vielfaches von 2, d. h. L = 2 , wobei B die Anzahl der Bits in der Darstellung der Bestrahlungsstärke repräsentiert. Wenn B > 1 ist, sprechen wir Graustufen- oder Intensitätsbild, für B = 1 von Schwarzweißbild. Für Farbbilder gibt es zwei prinzipiell verschiedene Möglichkeiten. Man ordnet einer Grauwertmatrix eine RGB-Farbpalette zu, die jeden Grauwert in einen rot-, grün- und blau-Wert (RGB-Wert) umsetzt. Dies ist eine L u 3 – Matrix. Dadurch erreicht, man maximal eine Darstellung in L verschiedenen Farben. In der Messtechnik wird dies gerne benutzt, um ein Graubild (Messwerte) als Falschfarbenbild darzustellen. 3B Eine höhere Farbvielfalt, nämlich 2 Farben, erhält man, indem jedem Pixel ein RGB-Wert zugeordnet wird.
R(m, n ) ¯ ¡ ° ¡ ° ¡G (m, n ) ° {0, !, L 1}3 , ¡ ° ¡ B(m, n ) ° ¢¡ ±° m 0, !, M 1 , n 0, !, N 1
(11.23)
Im Weiteren werden wir uns nur mit der Verarbeitung von Grauwertbildern beschäftigen. 11.3.1 Elementare Eigenschaften digitaler Bilder Eine sehr einfache und wichtige Charakterisierung digitaler Bilder erfolgt mittels der Methoden der Statistik, die Grundlage für weitere Operationen ist. Die durchschnittliche Helligkeit des Bildes wird definiert als Mittelwert P der Grauwerte I(m,n) über die gesamten - Pixel des Bildes: M 1 N 1
N
1 I (m, n ) : I . - m 0 n 0
(11.24)
Der Mittelwert, gebildet über alle Pixel des Bildes, gibt einem die Information, ob das Bild über- oder unterbelichtet ist. Obwohl der Mittelwert in der Mitte des Graustufenbereiches liegt, kann der Kontrast schlecht sein, wenn nur ein kleiner Teil ausgenutzt wird. Die Standardabweichung V des Bildes: M 1 N 1
T
1 I (m, n ) N 2 - m 0 n 0
I2 I
2
(11.25)
450
11 Bildaufnahme und -wiedergabe
ist ein globales Maß für Streuung der Grauwerte, deshalb beschreibt die Standardabweichung den Kontrast den Bildes. Eine detaillierte Information über die Helligkeits- und Kontrastverhältnisse im Bild erhält man aus dem Histogramm. Das Histogramm h(I) der Grauwerte, auch Häufigkeitsverteilung genannt, gibt an, wie oft ein bestimmter Grauwert im Bild vorkommt: L 1
0 b h(g ) b -
mit
h(g ) - .
(11.26)
g 0
Dividieren wir die absolute Häufigkeit h(g) der Grauwerte im Bild durch die Anzahl / der Pixel, erhalten wir die relative Häufigkeitsverteilung p(g) = h(g)// der Grauwerte im Bild. L 1
0 b p(g ) b 1
p(g ) 1 .
mit
(11.27)
g 0
Im Zusammenhang mit der Histogrammausgleich benötigen wir noch den Begriff der Summenhäufigkeitsverteilung g
H (g )
h(c)
(11.28)
c 0
und der relativen Summenhäufigkeitsverteilung P(g) = H(g)// eines digitalen Bildes als normierte Summenverteilung: g
P (g )
p(c) .
(11.29)
c 0
Aufgrund von dp(g)d ist die Funktion P(g) monoton steigend und mit den Werten dP(g)d 11.3.2 Punktoperationen Eine wichtige Klasse von einfachen Bildverarbeitungsoperationen sind die Punktoperationen. Bei der homogenen Punktoperation hängt der Grauwert im transformierten Bild nur vom Grauwert des Pixels im Originalbild ab. Die Operation ist unabhängig von der Position des Pixels und transformiert den Grauwertbereich [0,L-1] in sich:
T : [0, L 1] 6 [0, L 1] , g l g a T (g ) .
(11.30)
11.3 Bildverarbeitung
451
Es werden keine Grauwerte in der Umgebung des Originalpixels verwendet, dadurch können räumliche Eigenschaften nicht verändert werden. Beispiel: Ausgehend vom Grauwertbereich G = [0, L1] und der linearen Funktion
f : [0, L 1] 6 \ , g l f (g ) (g c1 )c2
(11.31)
verschiebt die Konstante c1 den Grauwertbereich zu helleren und dunkleren Grauwerten, während die Konstante c2 > 1 den Bereich spreizt. Damit die Transformation eine Selbstabbildung wird, muss der Wertebereich beschnitten werden.
T : [0, L 1] 6 [0, L 1] , £¦ 0 , (g c1 )c2 0 ¦¦ ¦¦ g l T (g ) ¤ L 1 , (g c1 )c2 L 1 ¦¦ ¦¦(g c1 )c2 , sonst ¦¥
(11.32)
Die Berechnung der Punkttransformation kann sehr aufwendig werden, wenn die Anzahl der Pixel im Bild groß ist. Dies kann vermieden werden, L wenn man vorab die Transformation für alle 2 1 Grauwerte berechnet und in eine Tabelle, genannt Look-up Table (LUT), ablegt. Das Berechnen der Transformation reduziert sich dann auf die Ersetzung von Grauwerten gemäß der Tabelle. Wir können auch das Histogramm h(g) des Originalbildes zur Berechnung einer geeigneten homogenen Punktoperation a , g max a ] , T : [g min , g max ] 6 [g min
g l g a T (g )
(11.33)
heranziehen mit dem Ziel, eine gewünschte Häufigkeit h´(g´) für alle Grauwerte g´ im neuen Bild zu erreichen. Mit dieser Forderung findet man keine homogene Operation. Eine schwächere Forderung ist a g max
H a(g a) H (g )
a Y g min
g max
h a(Y )
h(Y ) .
(11.34)
Y g min
Sie bedeutet, dass in jedem Teilintervall [g1, g2 ] des Originalhistogramms und des transformierten Teilintervalls [g1a, g2a ] [T (g1 ),T (g2 )] , die gleiche Anzahl von Grauwerten vorhanden ist.
452
11 Bildaufnahme und -wiedergabe
Beispiel: Beim so genannten Histogrammausgleich (Abb. 11.23) wird eine homogene Punkttransformation gesucht, die die gleiche Häufigkeit h´(g´) = A für alle Grauwerte liefert. Die Bedingung (11.34) führt auf g
ga
h(Y )
Y g min
ga
h a(Y ) A
a Y g min
a º g a T (g ) g min
a ) 1 A(g a g min
a Y g min g
(11.35)
1 h(Y) A Y g min
Die verbleibende Konstante A bestimmt sich dann aus a g max
M ¸N
a g max
h a(Y )
a Y g min
a g min a ) A A(g max
a Y g min
(11.36)
M ¸N ºA a a g max g min
Wir erhalten somit insgesamt die homogene Punktoperation für den Histogrammausgleich
a T (g ) g min
a g min a g max M ¸N
g
h(Y )
Y g min
Abb. 11.23. a) Originalbild, b) nach Histogrammausgleich
(11.37)
11.3 Bildverarbeitung
453
11.3.3 Nachbarschaftsoperation Bei der Nachbarschaftsoperation wird zur Berechnung des neuen Bildpixels p´ an der Stelle (m,n) nicht nur das Bildpixel p des Originalbildes an der Stelle (m,n) verwendet, sondern auch einige seiner Nachbarpunkte. Umgebungsbegriff Die folgenden Ausführungen beschränken sich auf 3u3 Umgebungen. Größere Umgebungen liefern keine prinzipiell neuen Erkenntnisse. Ein Pixel p mit den Koordinaten (m,n) hat vier horizontale und vier vertikale Nachbarn (Abb. 11.23). Erstere werden direkte Nachbarn N4(p) genannt, während letztere die indirekten Nachbarn ND(p) sind. Insgesamt besitzt ein Pixel acht Nachbarn N8(p) = N4(p) ND(p). In einer 3u3-Umgebung werden die Nachbarn entgegen dem Uhrzeigersinn durchnummeriert.
Abb. 11.24. Bezeichnung der einzelnen Pixel in einer 3 x 3 Umgebung
Direkte Nachbarn:
N 4 (p) {p0 , p2 , p4 , p6 } mit p0 (m, n 1) , p2 (m 1, n ) ,
(11.38)
p4 (m, n 1) , p6 (m 1, n ) . Indirekte Nachbarn:
N D (p) {p1, p3 , p5 , p7 } mit p1 (m 1, n 1) , p3 (m 1, n 1) ,
(11.39)
p5 (m 1, n 1) , p7 (m 1, n 1) . Mittels einer Abstandfunktion d(p,p´) lassen sich die Nachbarn eines Pixels leicht charakterisieren.
N 4 (p) {p a | d (p, p a) : | m m a | | n n a | 1}
(11.40)
454
11 Bildaufnahme und -wiedergabe
und
N 8 (p) {p a | d (p, p a) : max{| m m a |, | n n a |} 1}.
(11.41)
Lineare, homogene Nachbarschaftsoperationen Eine sehr wichtige Klasse sind die linearen, homogenen Nachbarschaftsoperationen, da sie mathematisch leicht zu beschreiben sind und sich gut implementieren lassen. Wir werden im Weiteren sie einfach Filter nennen. Das zentrale Element des Filters ist seine Maske M (Alternativ: Kern, Fenster, Impulsantwort, Pixelbild), die durch eine als (2P1)u(2Q+1) Matrix dargestellt werden. Die Mitte der Maske wird Ursprung der Maske genannt und mit dem Index (0,0) gekennzeichnet. Wie schon oben erwähnt, beschränken wir uns auf P = Q = 1.
Abb. 11.25. Ein 8 u 10 Bild (hellgrau) mit 1-Pixel breitem Rand (weiß), der nicht zum Bild gehört. Die Pixel des Randes müssen definiert werden, damit bei einer Nachbarschaftsoperation mit einer 3 u 3 Maske (dunkelgrau) die Operation definiert ist
Das gefilterte Bild berechnet sich als Linearkombination von Maskenwerten und Grauwerten des Originalbildes: P
I a(m, n ) :
Q
p P q Q
\ I (m p, n q )M (p, q )^
(11.42)
11.3 Bildverarbeitung
455
Die Operation lässt sich leicht veranschaulichen. Wir stellen uns die 3 u 3 Maske als 3 u 3 Bild vor und legen sie auf des Originalbild, dann liegen jeweils die 9 Maskenwerte auf 9 Bildwerten. Übereinander liegende Masken und Bildwerte werden multipliziert und anschließend die 9 Produkte addiert. Dieser Wert gibt den Grauwert des gefilterten Bildes an der Position, die durch den Ursprung der Maske definiert ist. Bei der Berechnung der Pixel im Randbereich überlappt die Maske in den Rand des Bildes, der nicht definiert ist (Abb. 11.24). Bei einem NuM Bild, welches mit einer (2P+1)u(2Q+1)-Maske bearbeitet werden soll, muss in horizontaler Richtung ein Q Pixel und in vertikaler Richtung ein P Pixel breiter Rand definiert werden. Die Werte des Randes können beliebig definiert werden, beispielsweise alle auf Null gesetzt sein (zero padding). Die Nachbarschaftsoperation kann als Faltungsprodukt aufgefasst werden, dazu schreiben wir Gl. (11.42) als P
I a(m, n ) :
Q
\ I (m p, n q )M (p, q ) ^ .
(11.43)
p P q Q
Die Matrix
K (p, q ) M (p, q )
(11.44)
geht durch Spiegelung am Ursprung aus der Matrix der Maske M hervor und wird auch als Filterkern (= Faltungskern) bezeichnet. Dann gilt P
(I K )(m, n ) :
Q
\ I (m p, n q )K (p, q )^ . (11.45)
p P q Q
Üblicherweise wird die lineare homogene Nachbarschaftsoperation als Faltungsprodukt aufgefasst und durch den Faltungskern K beschrieben. In dieser Form ist der Filter einer Analyse mittels der Fourier-Transformation leichter zugänglich. Beispiel: Glättungsfilter Bei einem Glättungsfilter sind alle Maskenwerte positiv, die Filteroperation liefert das gewichtete Mittel über alle Grauwerte, wobei die Maske die Gewichte enthält.
1 1 1¯ ¡ ° 1¡ ° M ¡1 1 1° 9¡ ° ¡1 1 1° ¢ ±
(11.46)
456
11 Bildaufnahme und -wiedergabe
Abb. 11.26. a) Originalbild, nach Bearbeitung mit b) Glättungsfilter, c) richtungsabhängigem Kantenfilter, d) Laplacefilter
Dies führt dazu, dass Kanten verwischen, Rauschen abgeschwächt wird und der visuelle Eindruck weicher wird. Homogene Bereiche bleiben unverändert (Abb. 11.28 b). Beispiel: Kantenfilter Bei einem Kantenfilter gibt es immer positive und negative Maskenwerte. Er stellt eine diskrete Differentiation dar. Dadurch werden homogene Bildbereiche gelöscht, Kanten verstärkt und feine Details hervorgehoben. Es lassen sich richtungsabhängige Filter, z. B.
0 1 0 ¯ ¡ ° 1¡ ° M ¡0 0 0° 2¡ ° ¡0 1 0° ¢ ±
(11.47)
11.3 Bildverarbeitung
457
definieren, die horizontalen Kanten hervorheben und vertikale Kanten nicht beeinflussen (Abb. 11.28 c). Ein Vertreter der richtungsunabhängigen Filter ist der Laplace-Filter
0 1 0 ¯ ¡ ° ¡ ° M ¡ 1 4 1 ° , ¡ ° ¡ 0 1 0 ° ¢ ±
(11.48)
der die Kanten unabhängig von ihrer Orientierung erkennt (Abb. 11.28 d). Es lassen sich auch Filter definieren, die beispielsweise horizontale Kanten erkennen und quer zu Kante glätten, wie der Prewitt-Filter
1 1 1 ¯ ¡ ° 1¡ ° M ¡ 0 0 0 ° 6¡ ° ¡ 1 1 1 ° ¢ ±
(11.49)
Weiterführende Betrachtungen findet man in Gonzalez u. Woods 2002. 11.3.4 Diskrete Fourier-Transformation Die Fourier-Transformation ist die wichtigste Transformation, die sämtliche Werte des Originalbilds zur Berechnung eines Pixels des neuen Bildes verwendet. Fast alle wichtigen Eigenschaften der diskreten FourierTransformation lassen sich am eindimensionalen Fall untersuchen. Diskrete Fourier-Koeffizienten Gehen wir von einer reellen periodischen Funktion f : \ 6 \ , x l f (x ) mit der Periode L aus, dann gilt f (x L) f (x ) für alle Argumente x \ . Die Funktion lässt sich (unter gewissen Voraussetzungen) als Fourier-Reihe d
f (x )
1 L
(11.50)
p]
(11.51)
cp ( f )e i2Q pu0x , u 0
p d
mit den Euler-Fourier-Koeffizienten L
1 cp ( f ) ¨ f (x )e i2Q pu0x dx , L 0
darstellen. Die Werte cp ( f ) werden auch das Spektrum von f genannt.
458
11 Bildaufnahme und -wiedergabe
Periodische Funktionen können mit der Trapezregel mit maximaler Genauigkeit numerisch integriert werden, wenn die Funktion f an den Stellen
xj j
L j %x , N
j ]
(11.52)
abgetastet wird. Aus der Periodizität der Funktion f folgt für die Abtastfolge y j f (x j ) f ( j %x ), j ] die N-Periodizität y j N y j , j ] . Wir erhalten für j ] L
cp
N 1
1 %x f (x )e i2Q pu0x dx x L¨ L
1 N
0 N 1
y j e
i2 Q / N jp
j 0
jp
f ( j %x ) ei2Qu %x
0
j 0
(11.53)
N 1
1 N
yjw
jp
cp (f ) .
j 0
Aus der Eigenschaft w j (p mN ) e i2Q / N
j ( p mN )
e i2Q / N
jp
w jp (11.54)
für m, n, p ] folgt
1 cp mN (f ) N
N 1
yn w
n ( p mN )
n 0
1 N
N 1
ynw np
cp (f ) ,(11.55)
n 0
ohne dass wir die N-Periodizität der Abtastwertefolge f j verwendet haben. Insbesondere gilt
cp (f ) cN p (f ) .
(11.56)
Folglich ist es nur sinnvoll, einen Abschnitt von höchstens N Werten der Folge cp ( f ) als Näherung der Spektralwerte c p ( f ) zu verwenden. Definition der diskreten Fourier-Transformation
Es liegt nahe, die Funktion f durch ihre Fourier-Summe f (x ) x f(x ) :
N 1
cp (f )e i2Qpu x 0
(11.57)
p 0
zu approximieren. Dann gilt wegen
1 N
n 1
£ ¦1 , k j mN , k v j mN ¦ ¥
(e i2Q / N )p( j k ) ¦¤¦ 0
p 0
(11.58)
11.3 Bildverarbeitung
459
in den Abtaststellen x j j %x , j 0, !, N 1
f(x j ) :
N 1 £
¦1 ¦¤¦ N p 0 ¥ ¦
N 1
²¦
yk (e i2Q / N )kp ¦»¦e i2Qpu x
N 1 £
¦ 1 ¦¤ yk ¦ k 0 ¥ ¦ N
0 j
¼¦
k 0
N 1
²¦ (e i2Q / N )( j k )p ¦»¦ y j f (x j ). p 0 ¼¦
(11.59)
Dies führt uns auf den Satz und Definition: Es seien yj, j = 0,…,N die Abtastwerte von f. Dann heißen die komplexen Zahlen
Yp DFT{y }p
1 N
N 1
y j (e i2Q / N )jp
, p 0, !, N 1 (11.60)
j 0
die diskrete Fourier-Transformierte oder das diskrete Spektrum von (fj) . Die inverse diskrete Fourier-Transformierte N 1
Yp (e i2Q / N )pj
y j IDFT(Y )j
(11.61)
p 0
rekonstruiert die Abtastwerte (yj) der Funktion f. Die Summation kann numerisch sehr effizient durchgeführt werden, man spricht dann von der FFT (Fast Fourier Transform). Darstellung des diskreten Spektrums
Für die praktische Berechnung erscheint der einfache Indexbereich p = 0,…, N - 1 geeignet. Wir betrachten deshalb die Näherung von f f (x ) x f(x ) :
N 1
cp (f )e i2Qpu x 0
(Standarddarstellung) . (11.62)
p 0
Für die physikalische Interpretation der Spektralwerte eignet sich die zum Nullpunkt symmetrische Darstellung (auch optische Darstellung genannt) f (x ) x fo (x ) :
n 1 r
ckoe i2Qpu x 0
p n
(optische Darstellung) (11.63)
460
11 Bildaufnahme und -wiedergabe
mit n N div 2 und r N mod 2 weitaus besser. Die Beziehung für die Umrechnung der Koeffizienten ergibt sich aus der Bedingung f(x j ) fo (x j ), j 0, !, N 1. Daraus folgt £ ¦cp N cpo ¦ ¤ ¦ c ¦ ¥ k
, n b p b 1 (11.64)
, 0 b p b N n 1
und umgekehrt o
£¦ck cp ¦¤ o ¦¦cp N ¥
, 0 b p b N n 1 , N n b p b N 1
.
(11.65)
In der Bildverarbeitung stellt die Funktion f die Intensität des Lichtes (Bestrahlungsstärke) auf dem Sensorchip dar. Folglich müssen die Koeffizienten die Bedingung co k (cko ) erfüllen. Damit ergibt sich für N 2n 1 n
cpoe i2Qpu x 0
p n
n
2 Re{cpo } cos(2Qpu0x ) p 0 n
2
(11.66)
Im{cpo } sin(2Qpu0x )
p 0
und für N 2n n 1
cpoe i2Qpu x 0
p n
n 1
2 Re{cpo } cos(2Qpu 0x ) p 0
n 1
2 Im{cpo } sin(2Q pu 0x )
(11.67)
p 0
an cos(2Q pu 0x )
mit 1 an 2n
2n 1
(1)j f (x j ) .
(11.68)
j 0
Die technische Darstellung von cp ( f ) bzw. cpo ( f ) erfolgt nicht über dem Argument p sondern über der Frequenz u. Mit der Abtastfrequenz
u sampling
1 N Nu 0 %x L
(11.69)
11.3 Bildverarbeitung
461
gilt u p pu sampling p
N 1 p . L %x
(11.70)
Es lassen sich nur Frequenzen im Bereich zwischen der kleinsten Frequenz (pmin min p 1)
u min pminu 0
1 1 L N %x
(11.71)
und der größten Frequenz (pmax max p n ) u max pmaxu 0
n n N 1 b u sampling L 2n r L 2
(11.72)
darstellen. Daraus erhalten wir die wichtigen Beziehungen u0%x
1 N
und u sampling p 2umax .
(11.73)
Die Abtastung erfolgt mit mindestens der doppelten maximalen Frequenz, die durch das trigonometrische Polynom dargestellt wird. In der technischen Literatur spricht man gerne anstelle von diskreten Fourier-Koeffizienten von f vom diskreten Spektrum von f und zerlegt das Spektrum von f nach dem diskreten Phasenspektrum Gpo ( f ) [0, 2Q) und o ( f ) 0, gemäß der Beziehung diskreten Amplitudenspektrum A p o
o ( f )e iGp ( f ) cpo ( f ) A p
,
p 0, !, n
(11.74)
d.h. o ( f ) co ( f ) A p p
,
Gpo ( f ) arg cop ( f ) ,
p 0, !, n .(11.75)
Dies liegt darin begründet, dass es physikalische Systeme gibt, die entweder das Amplitudenspektrum oder das Phasenspektrum des Eingangssignals beeinflussen. Daraus erhält man für das Amplituden- und Phasenspektrum die Eigenschaft (f ) A ( f ) , G ( f ) G ( f ) . A p p p p
(11.76)
Die Spektralwerte Ap (f ) und Gp ( f ) mit nicht negativem Index p p 0 sind somit ausreichend, um die Funktion f in den Abtaststellen zu rekonstruieren.
462
11 Bildaufnahme und -wiedergabe
Diskrete Faltung und digitale Filter Die diskrete Fourier-Transformation kann zum Design von digitalen Filtern verwendet werden, da das diskrete Faltungsprodukt
( f g )j :
N 1
1 N
1 N
f (x j x p )g(x p )
p 0
N 1
f (( j p)%x )g(p%x )
p 0
1 N
N 1
fj pg p
p 0
(11.77)
im Spektrum einer einfachen Multiplikation cp (f g ) cp (f ) ¸ cp (g )
(11.78)
entspricht. Es lässt sich nachrechnen, dass ein Kantenfilter sich wie ein Hochpassfilter und ein Glättungsfilter wie ein Tiefpassfilter verhält. Zusammenhang mit den exakten Werten, Aliasing Die Näherungswerte cp ( f ) hängen direkt mit den exakten Werten cp ( f ) zusammen. In den Abtaststellen x j j %x erhalten wir die Abtastwerte d
f ( j %x )
cle i2Qu0l ( j %x )
l d
d
cl (e i2Q / N )lj
l d
d
cl wlj .
(11.79)
l d
Eingesetzt in Gl. (11.53) ergibt sich wegen Gl. (11.58) 1 N
N 1
1 N
d
cp ( f )
fj w jp
j 0
l d
1 N
N 1
c( f ) w
N 1
£ ¦
j 0
¦ l d ¥
d
² ¦
¦¤¦ cl (f )w jl ¦»¦ w jp
j (l p )
¦ ¼
d
(11.80)
cp mN (f ).
j 0
m d
Die Beziehung (11.80) der Koeffizienten cp ( f ) ist die Summe aller exakten Fourier-Koeffizienten cp mN ( f ) von f, m ]. Die zugehörigen harmonischen Schwingungen
g p mN (x ) e i2Q(p mN )u0x
,
p, m ]
(11.81)
mit den Frequenzen (p mN )u 0 können anhand der Abtastwerte f ( j %x ) nicht unterschieden werden, weil alle Funktionen
11.4 Bildwiedergabe – Displays
463
g p mN (x ), m ] an den Stellen x j j %x , j 0, !, N 1 übereinstimmen: g p mN (x j ) g p mN ( j %x ) e i2Q(p mN ) ju0%x (e i2Q / N )jp (e i2Q )jm w jk g p (x j ) .
(11.82)
Diese Tatsache wird Alias-Effekt genannt. Die komplexen Amplituden cp mN ( f ) aller Schwingungen cp mN e i2Q(p mN )u0x der Frequenz
(p mN )u0 , m ] , sind in cp ( f ) in Summe vertreten. Beispiel: Die Funktionen
f (x ) sin(8Qx ) º u0 4 Lp/m 4 p g(x ) sin(28Qx ) º u 0 14 Lp/m 14 p mN
(11.83)
können durch Abtastung an den Stellen (m = 1, N = 10)
x j / m j /10, j 0, !, 9 %x 0.1 m u 10 Lp/mm
(11.84)
nicht unterschieden werden.
g(x j ) sin(28Q j / 10) sin(2Q j 8Q j / 10) sin(8Q j / 10) f (x j )
(11.85)
Mit einer Abtastrate usampling 10 Lp/m lassen sich beide Signale unterscheiden. Alle Betrachtungen in diesem Abschnitt lassen sich auf zwei Dimensionen übertragen und damit direkt auf digitale Bilder anwenden. In der einschlägigen Literatur (Gonzalez u. Woods 2002) wurde dies ausführlich behandelt.
11.4 Bildwiedergabe – Displays Die Wiedergabe von Bildern ist ein weites Feld von der klassischen Fotografie über das Ausdrucken mit Tintenstrahl- oder Laserdruckern bis hin zu optoelektronischen Displays. Um den Rahmen dieses Werkes nicht zu sprengen, sollen hier lediglich Flüssigkristalldisplays (LCD) und Displays auf der Basis von organischen Leuchtdioden (OLED) behandelt werden.
464
11 Bildaufnahme und -wiedergabe
11.4.1 Flüssigkristall-Displays Liquid Crystal Displays (LCD) beruhen auf den elektrooptischen Eigenschaften flüssiger Kristalle. Viele organische Substanzen können einen flüssigkristallinen Zustand einnehmen, dessen Ordnungsgrad zwischen dem eines anisotropen Festkörpers und dem einer isotropen Flüssigkeit liegt. Oberhalb des Schmelzpunkts befinden sie sich in einer so genannten Mesophase, in der sie zwar fließfähig sind wie eine Flüssigkeit, in der aber dennoch eine gewisse Fernordnung zwischen den Molekülen vorliegt. Die Substanz ist in diesem Zustand von milchig-trübem Aussehen. Erhöht man die Temperatur über die Klärtemperatur, dann entsteht eine normale isotrope und klare Flüssigkeit. Die Mesophase stellt sich ein, wenn die Moleküle entweder lang gestreckt (stäbchenförmig) oder flach (scheibchenförmig) sind und starke elektrische Dipolmomente besitzen, über die sie sich gegenseitig beeinflussen. Innerhalb der Mesophase gibt es in Abhängigkeit von der Temperatur verschiedene Ordnungsstrukturen der Moleküle. Die wichtigste für Displays ist die nematische Phase, in der die stäbchenförmigen Moleküle im Mittel parallel ausgerichtet sind (Abb. 11.27). Die Vorzugsrichtung wird durch den Direktor n(r) angegeben. Die Molekülschwerpunkte sind relativ zueinander frei verschiebbar. Sind die einzelnen Molekülachsen um den Winkel 4i gegenüber dem Direktor verkippt, dann beschreibt S
3 1 (3 cos 2 4 i 1) 1 sin 2 4 i 2 2
(11.86)
den Ordnungsparameter des Systems. In einem perfekt geordneten System ist 4 = 0 und S = 1. In einer vollkommen ungeordneten, also isotropen Phase ist S = 0. In typischen nematischen Phasen ist 0,4 < S < 0,7.
Abb. 11.27. Nematische Flüssigkristalle, a) Ausrichtung um den Direktor n(r), b) Anisotropie der elektrischen und optischen Eigenschaften
11.4 Bildwiedergabe – Displays
465
Ein geordneter Bereich eines Flüssigkristalls zeigt anisotrope, d.h. richtungsabhängige elektrische und optische Eigenschaften. Die Permittivität (Dielektrizitätskonstante) H = HrH0 wird zu einem Tensor. Wird ein elektrisches Feld in Richtung des Direktors angelegt, so ergibt sich eine relative Permittivitätszahl H r H || , die abweicht von H r H A , senkrecht zur Richtung des Direktors. Die Anisotropie heißt positiv, wenn 'H H || H A ! 0 und negativ, wenn 'H 0 ist. Auch der optische Brechungsindex zeigt Anisotropie. Beim so genannten ordentlichen Strahl (Abschn. 1.2.2.3), der sich in Richtung des Direktors ausbreitet, schwingt der elektrische Feldvektor E normal zur Moleküllängsachse. Damit ist sein Brechungsindex no nA . Der außerordentliche Strahl steht senkrecht auf dem Direktor, so dass sein elektrisches Feld in Längsrichtung der Moleküle weist. Hier ist der wirksame Brechungsindex ne n|| . Bei positiver Anisotropie ist 'n n|| nA ! 0 . Die Größen Hj und nj hängen ab von der Molekülstruktur, dem Ordnungsparameter S, der seinerseits von der Temperatur und externen Feldern abhängt, sowie der Lichtwellenlänge. Tabelle 11.2 listet einige Werte auf. Tabelle 11.2. Eigenschaften einiger Flüssigkristalle (Fa. Merck) Flüssigkristall Klärtemperatur in qC 'H (1 kHz, 20 qC)
no
nA (589 nm, 20 qC)
ZLI-3125 63 2,4 1,4672
ZLI-2293 85 10 1,4990
MLC-13800-000 110 8,9 1,4720
ne
n|| (589 nm, 20 qC)
1,5188
1,6312
1,5622
0,0516 'n Rotationsviskosität in mPas (20 qC)
0,1322 162
0,0902 228
In Anwesenheit eines elektrischen Feldes richten sich bei Flüssigkristallen mit positiver Anisotropie die Moleküllängsachsen und damit der Direktor parallel zur Feldrichtung aus. Die Zeitdauer solcher Ausrichtungsvorgänge und damit das dynamische Verhalten von LCDs wird wesentlich von der Viskosität der Substanz bestimmt. Die Rotationsviskosität ist maßgebend für das Drehvermögen um eine Achse senkrecht zum lokalen Direktor. Sie hängt exponentiell von der Temperatur ab und damit auch die Schaltzeit eines Displays:
't ~ exp(a / T ) .
(11.87)
Moderne Displays erreichen Schaltzeiten unter 10 ms. Um die elektrischen und optischen Konstanten sowie die Viskosität und den nutzbaren
466
11 Bildaufnahme und -wiedergabe
Temperaturbereich an die Bedürfnisse des Anwenders anzupassen, werden in der Regel mehrere Materialien gemischt. Verdrillte nematische Phase Die wichtigste Displaystruktur ist die von Schadt und Helfrich entwickelte Drehzelle (Twisted Nematic, TN, Abb. 11.28). Zwei auf der Innenseite mit leitfähigem, transparentem Indium-Zinn-Oxid (ITO, Indium Tin Oxide) beschichtete Glassubstrate werden mit Abstandshaltern auf einige Mikrometer Distanz gehalten. Die dazwischen befindliche Flüssigkristallmischung wird durch Orientierungsschichten aus Polyimid ausgerichtet. Der einige 10 nm dicke Polyimidfilm wird mit einer Walze, die mit einem Samttuch bespannt ist, unidirektional gerieben. Das führt dazu, dass sich die stäbchenförmigen Moleküle in den mikroskopischen Rillen verankern. Die ersten Moleküle liegen allerdings nicht völlig parallel zur Orientierungsschicht, sondern zeigen einen kleinen Anstellwinkel (pre-tilt angle) von einigen Grad. Sind die Reiberichtungen der beiden Polyimidschichten um 90q gegeneinander verdreht, ordnen sich die Moleküle in Form einer Helix an. Wird linear polarisiertes Licht in die Zelle eingestrahlt, wobei die Schwingungsrichtung parallel zur Orientierungsrichtung weist, dann läuft
Abb. 11.28. TN-Zelle, a) Aufbau mit gekreuzten Polarisatoren (normally white mode), P1: Polarisator 1, G: Glassubstrat, ITO: transparente Elektrode, O1: Orientierungsschicht 1, O2: Orientierungsschicht 2, F: Farbfilter, P2: Polarisator 2 (Analysator), b) schraubenförmige Anordnung der Moleküle im spannungslosen Fall, hell, c) ausgerichtete Moleküle bei anliegender Spannung, schwarz
11.4 Bildwiedergabe – Displays
467
die Komponente des elektrischen Feldes in Richtung der Moleküllängsachsen langsamer als die dazu orthogonale Komponente. Infolge dieser Doppelbrechung wird bei richtig dimensionierter Dicke d des Flüssigkristalls das linear polarisierte Licht zu elliptischem, das in der Tiefe d/2 zu zirkular polarisiertem wird und schließlich über elliptisches wieder in linear polarisiertes übergeht, allerdings mit einer um 90q gedrehten Schwingungsrichtung. Ist nun der auf der Rückseite aufgeklebte Polarisator (Analysator) senkrecht zum ersten Polarisator ausgerichtet, dann wird das Licht durchgelassen, die Zelle erscheint hell (normally white mode). Ist aber der Analysator parallel zum Polarisator orientiert, dann wird das Licht nicht durchgelassen, die Zelle erscheint schwarz (normally black mode). Wird eine Spannung von einigen Volt an die ITO-Kontakte gelegt, dann behält lediglich eine dünne Moleküllage an den Polyimidfilmen die ursprüngliche Orientierung bei, während sich die restlichen Moleküle in die Feldrichtung drehen, der Direktor also senkrecht zu den Platten steht. Da bei dieser homöotropen Ausrichtung keine Doppelbrechung auftritt, wird das polarisierte Licht nicht gedreht und bei gekreuzten Polarisatoren nicht durchgelassen bzw. bei parallelen Polarisatoren durchgelassen. Die Transmission einer TN-Zelle mit parallelen Polarisatoren (normally black mode) ist nach Gooch und Tarry gegeben durch
Tnbm
§S · sin 2 ¨ 1 u2 ¸ 1 ©2 ¹ 2 2 1 u
mit dem Retardationsparameter u
2d
'n
O
. Die Kurve in Abb. 11.29 a)
zeigt, dass die Transmission null wird für u m
4m 2 1 , mit m = 1, 2, 3..
Die erste Nullstelle der Transmission stellt sich ein für u1 die Schichtdicke
d1
3 O . 2 'n
(11.88)
3 bzw. für
(11.89)
Für einen Flüssigkristall mit 'n = 0,1 und die Wellenlänge O = 550 nm (grün) ergibt sich als Dicke d1 = 4,8 Pm. Die zum zweiten Minimum gehörende Schichtdicke ist d2 = 10,7 Pm. Da die Schaltzeit einer Zelle mit dem 2 Quadrat der Schichtdicke ansteigt ('t ~ d ), werden schnelle Displays im ersten Minimum der Gooch-Tarry-Kurve betrieben.
468
11 Bildaufnahme und -wiedergabe
Abb. 11.29. Transmissionskurven von TN-Zellen, a) parallele Polarisatoren (normally black mode), b) gekreuzte Polarisatoren (normally white mode)
Die Auslöschung erfolgt nach Gl. (11.89) im Prinzip nur für eine bestimmte Wellenlänge O und auch nur bei senkrechter Betrachtung. Ist beispielsweise die Auslöschung für grün (O = 550 nm) gegeben, dann beträgt nach Gl. (11.88) die Transmission im Roten (O = 650 nm) T = 1,7%. Das Pixel ist damit also nicht mehr vollständig schwarz. Eine Verbesserung kann erzielt werden mithilfe von Kompensationsfolien. Die Transmission einer TN-Zelle mit gekreuzten Polarisatoren (normally white mode) ist gegeben durch
Tnwm mit u
2d
'n
O
§S · cos 2 ¨ 1 u2 ¸ u2 1 ¹ ©2 2 2 1 u
1 Tnbm 2
(11.90)
. Maxima der Transmissionsfunktion (Abb. 11.29 b) entste-
hen wieder für u m 4m 2 1 , mit m = 1, 2, 3.. Das erste Maximum stellt sich ein bei der Schichtdicke nach Gl. (11.89). Wird eine Spannung angelegt, so ergibt sich der schwarze Zustand, der hier unabhängig ist von der Wellenlänge. Aus diesem Grund ist die Anordnung mit gekreuzten Polarisatoren die bevorzugte. Wird an die ITO-Elektroden eine Spannung angelegt, so beginnen sich ab einer gewissen Schwellenspannung Uth (threshold voltage) die Moleküle zu drehen. Bei einem Vielfachen der Schwellenspannung sind alle Moleküle (mit Ausnahme der Haftschichten an den Polyimidfilmen) parallel zum Feld ausgerichtet. Typische Durchlasskurven von TN-Zellen sind in Abb. 11.30 dargestellt.
469
relative Transmission T/Tmax
11.4 Bildwiedergabe – Displays
normierte Spannung U/Uth
Abb. 11.30. Elektrooptische Kennlinien einer TN-Zelle für verschiedene Polarisatorkombinationen
Um eine Flüssigkristallzelle zu betreiben wird ausschließlich Wechselspannung ohne Gleichanteil verwendet, da sonst durch elektrochemische Prozesse der Flüssigkristall zersetzt würde. Die Schwellenspannung beträgt typischerweise etwa 2 V (Effektivwert). In der Praxis wird die Zelle mit dem Zwei- bis Dreifachen der Schwellenspannung angesteuert. Graustufen eines Pixels lassen sich gemäß Abb. 11.30 über die angelegte Spannung regeln. Für Farbdarstellungen besteht jedes Pixel aus drei Subpixeln, welche die Farben rot, grün und blau erzeugen. Dazu ist auf der dem Betrachter zugewandten Seite der TN-Zelle ein Farbfilter eingebracht (Abb. 11.28). Das Kontrastverhältnis einer TN-Zelle ist definiert als das Verhältnis der maximalen Leuchtdichte Lmax (Abschn. 1.3.2), welche die Zelle abgibt zur minimalen Lmin: K
Lmax . Lmin
(11.91)
Ab einem Kontrastverhältnis von K | 5 wird ein Bild als kontrastreich empfunden. Kommerzielle Displays zeigen bei senkrechter Betrachtung Kontrastverhältnisse von K | 200. Der Kontrast sowie der Farbeindruck variiert bei der TN-Zelle stark mit dem Blickwinkel des Betrachters. Die Blickwinkelabhängigkeit steigt mit der Dicke d des Flüssigkristalls. Auch aus diesem Grund ist die Dicke d1 nach gl. (11.89) Werten höherer Ordnungen vorzuziehen. STN-Zellen Zellen, bei denen der Verdrillungswinkel zwischen 90 q und 270 q liegt, werden als Super Twisted Nematic (STN) bezeichnet. Sie zeichnen sich dadurch aus, dass die elektrooptische Kennlinie (Abb. 11.30) wesentlich
470
11 Bildaufnahme und -wiedergabe
steiler verläuft als bei der TN-Zelle. Die Zelle schaltet damit innerhalb eines sehr kleinen Spannungsintervalls voll durch. Das hängt damit zusammen, dass zwischen den stärker gegeneinander verdrillten Molekülen geringere intermolekulare Kräfte wirksam sind, so dass eine geringere elektrische Feldstärke benötigt wird, um die Moleküle parallel auszurichten. Mit STN-Zellen sind wegen der großen Steilheit der elektrooptischen Kennlinie hoch multiplexierbare Anzeigen möglich. Reflektive Drehzellen Transmissive LCDs benötigen eine Hintergrundbeleuchtung, die ca. 90% der erforderlichen Leistung verbraucht. Sehr geringen Energieverbrauch zeigen reflektive Zellen, die das Umgebungslicht ausnutzen. Bei der Anordnung nach Abb. 11.31 a) wird im spannungslosen Fall das linear polarisierte Licht im Flüssigkristall um 90 q gedreht, passiert den zweiten Polarisator P2 und wird von einem metallischen Reflektor R unter Beibehaltung des Polarisationszustandes reflektiert. Nach nochmaligem Durchlaufen der Drehzelle wird das Licht vom Polarisator P1 durchgelassen, die Zelle erscheint hell.
Abb. 11.31. Reflexions-Drehzelle, a) Zelle mit zwei gekreuzten Polarisatoren P1 und P2, R: Reflektor, b) Zelle mit einem Polarisator P und einem O/4-Film. Die Glassubstrate sowie ITO-Elektroden und Orientierungsschichten sind nicht gezeichnet
Wird eine Spannung angelegt, so dass sich die Moleküle ausrichten, dann wird das einfallende Licht im Flüssigkristall nicht gedreht und kann somit den Polarisator P2 nicht passieren, die Zelle wird dunkel. Diese Anordnung ist vielfach eingesetzt für einfache anzeigen wie 7-SegmentAnzeigen bei Armbanduhren, Taschenrechnern etc. Bedingt durch die zwei Polarisatoren ist der Hellzustand relativ lichtschwach. Darüber hinaus zeigt die Zelle wegen der großen Bauhöhe eine starke Blickwinkelabhängigkeit des Kontrastes. Bessere Eigenschaften besitzt die Zelle nach Abb. 11.31 b), bei der ein Polarisator mit einem O/4-Film kombiniert wird, so dass zirkular polarisiertes Licht in die Zelle eintritt. Nach Durchlaufen des Flüssigkristalls wird daraus elliptisch polarisiertes Licht, das nach der Reflexion am Reflektor lediglich seinen Dreh-
11.4 Bildwiedergabe – Displays
471
sinn ändert. Von der Kombination O/4-Film und Polarisator wird diese Licht durchgelassen, es liegt also ein Hellzustand vor. Wird eine Spannung angelegt, so dass sich die Moleküle in Feldrichtung einstellen, dann durchläuft das zirkular polarisierte Licht die Zelle, ändert bei der Reflexion den Drehsinn und wird von O/4-Film und Polarisator ausgelöscht, es liegt also der Dunkelzustand vor. Da reflexive Displays ohne Umgebungslicht nicht ablesbar sind, werden auch transreflektive LCDs entwickelt. Hier ist jedes Pixel in ein transmissives und ein reflektives Subpixel unterteilt. Reicht die Umgebungshelligkeit nicht mehr aus, kann durch Einschalten einer Hintergrundbeleuchtung das transmissive Subpixel aktiviert werden. IPS-Displays Die Blickwinkelabhängigkeit des Kontrastes von LCDs wird wesentlich verbessert durch die In-Plane-Switching-Methode (IPS, Abb. 11.32). Im spannunglosen Zustand (linke Bildhälfte) sind die Moleküle parallel zum Polarisator P1 angeordnet und nicht verdrillt. Das linear polarisierte Licht wird dadurch nicht verändert und vom Polarisator P2 (Analysator), der gegenüber P1 um 90 q verdreht ist, nicht durchgelassen.
Abb. 11.32. Aufbau einer IPS-Zelle. Bei gekreuzten Polarisatoren P1 und P2 ist die Zelle schwarz (normally black mode)
Wird an die Elektroden, die sich hier nur auf einer Seite des Flüssigkristalls befinden, eine Spannung angelegt (rechte Bildhälfte), dann verlaufen die Feldlinien näherungsweise horizontal. Die Moleküle drehen sich in die Feldrichtung, wobei ihre Längsachsen parallel zu den Platten bleiben (in plane). Aus dem linear polarisierten Licht wird jetzt elliptisch polarisiertes, das vom Polarisator P2 durchgelassen wird.
472
11 Bildaufnahme und -wiedergabe
Wenn die Zelle voll durchgeschaltet ist, beträgt die Transmission
T mit u
2d
'n
O
1 sin 2 E sin 2 uS 2
(11.92)
und dem Verdrillungswinkel E der Moleküle. Maximale
Transmission ergibt sich für E = 45 q und d = O/(4'n). Sind die beiden Polarisatoren parallel ausgerichtet, dann ist die Zelle im spannungslosen Zustand hell und wird mit anliegender Spannung dunkel. Neben der hervorragenden Verbesserung des nutzbaren Blickwinkels (über r 70 D bei K > 5) erlauben IPS-Zellen auch eine sehr gute Kontrolle der Grauwerte. VA-Displays Bei den VA-LCDs (Vertically Aligned) sind die Moleküle im spannungslosen Zustand vertikal zu den Glasplatten ausgerichtet (Abb. 11.33). Linear polarisiertes Licht wird durch sie nicht beeinflusst und vom Polarisator P2 (Analysator) durchgelassen, was zu einem exzellenten SchwarzZustand führt.
Abb. 11.33. MVA-Zelle. Die Polarisatoren P1 und P2 sind um 90 q verdreht
Flüssigkristalle mit negativer Anisotropie ('H < 0) stellen sich bei angelegter Spannung senkrecht zum Feld, d.h. parallel zu den Platten, ein. Sind sie gegen die Schwingungsrichtung von P1 verdreht, entsteht elliptisch polarisiertes Licht, das vom Polarisator P2 durchgelassen wird. Kleine pyramidenartige Vorsprünge (protrusions) auf der unteren Elektrode sorgen dafür, dass die Moleküle in definierter Richtung kippen. Im MVA_LCD (Multidomain Vertically Aligned) wird jedes Pixel in zwei oder vier Subpixel mit unterschiedlicher Orientierung der Moleküle unterteilt. Dadurch entsteht ein guter Kontrast über einen großen Blickwinkel ( r 80 D bei K > 10), was die Herstellung großformatiger LCD-Fernseher ermöglicht.
11.4 Bildwiedergabe – Displays
473
Ansteuerung Zur Darstellung von Bildern sind die einzelnen Pixel in der Regel in einer Matrix angeordnet. Bei der passiven Matrixansteuerung (PMLSD) wird auf die Zeilenelektroden die Spannung Uz gegeben und auf die Spaltenelektroden die Spannung Us (Abb. 11.34). Ist beispielsweise die Zeile i auf Uz,i = Uth = +2 V gelegt und die Spalte k auf Us,k = -2 V, dann liegt am Flüssigkristall des Überkreuzungspunkts Ui,k = 4 V an und er schaltet durch.
Abb. 11.34. Ansteuerung von LCDs, a) PMLCD, b) AMLCD. CLC und RLC repräsentieren den Flüssigkristall, S, G und D sind Source, Gate und Drain des FET
Das Zeitmultiplex mehrerer Zellen ist nur möglich, wenn die elektrooptische Kennlinie (Abb. 11.30) steil ist. Nach Alt und Pleshko ist die Zahl N der adressierbaren Zeilen gegeben durch 2
N
§ (U on / U off ) 2 1 · ¨ ¸ , ¨ (U / U ) 2 1 ¸ © on off ¹
(11.93)
wobei Uon und Uoff die Spannungen angeben, bei denen die TN-Zelle schaltet. Ist beispielsweise nach Abb. 11.30 Uon/Uoff = 1,75, dann ist die Zahl der multiplexierbaren Zeilen lediglich N = 4. Von großem Vorteil sind hier die STN-Zellen, da sie eine wesentlich steilere Kennlinie aufweisen. Aus Gl. (11.93) folgt für das erforderliche Spannungsverhältnis für eine bestimmte Zeilenzahl:
U on U off
N 1 . N 1
(11.94)
Für N = 240 ergibt sich Uon/Uoff = 1,067, was mit STN-Zellen realisierbar ist. Wesentlich bessere Eigenschaften zeigt die aktive Matrixansteuerung (AMLCD), bei der in einer Ecke jedes Pixels ein elektronisches Bauteil, meist ein Dünnfilmtransistor (TFT, Thin Film Transistor), sitzt, welches
474
11 Bildaufnahme und -wiedergabe
das Pixel unabhängig von allen anderen ansteuert (Abb. 11.34 b). Auf dem oberen Glassubstrat der Abb. 11.28 (der Hintergrundbeleuchtung zugewandt) sitzt ein Feldeffekt-Transistor in Dünnschichttechnologie, während die ITO-Gegenelektrode auf dem unteren Substrat ganzflächig ausgeführt ist. Der n-Kanal-FET arbeitet als Schalter. Durch einen positiven GateImpuls an der Zeile i werden alle TFTs der Zeile leitend. Dadurch kann über die Spaltenleitung k die Signalspannung an den Flüssigkristall (LC) gelegt werden. Dieser ist im Ersatzschaltbild durch CLC und RLC repräsentiert. Zusätzlich wird ein Dünnfilm-Speicherkondensator (storage capacitor) der Kapazität Cst aufgeladen, dessen Aufgabe es ist, die Spannung über dem LC möglichst so lange zu halten, bis die nächste Adressierung erfolgt. Ohne den Speicherkondensator würde die Spannung am LC infolge von Leckströmen rasch abklingen. Üblicherweise ist die Bildwiederholfrequenz 60 Hz. Das bedeutet, dass nach TF = 16,7 ms (frame time) das Bild neu geschrieben wird. Wenn der Speicherkondensator während dieser Zeit die Spannung halten kann, entsteht ein völlig flimmerfreies Bild. Ist N die Zahl der Zeilen, so ist die Schaltzeit einer Zeile (select time) TS = TF/N. Beträgt beispielsweise bei XGA-Auflösung die Zeilenzahl N = 768, so muss der Ladevorgang in TS = 21,7 Ps abgeschlossen sein. Wie bereits erwähnt, werden Flüssigkristalle unter Gleichspannung elektrolytisch zersetzt. Deshalb muss die Polarität der Source-Spannung bei jedem neuen Bildaufbau geändert werden. 11.4.2 OLED-Displays OLEDs (Organic Light Emitting Diodes) bestehen aus organischen Substanzen, die halbleitende Eigenschaften aufweisen. Beispielsweise besitzt der Phenylring von Polyphenylenvinylen (PPV, Abb. 11.35) sechs S-Molekülorbitale, von denen die drei energetisch tief liegenden mit je zwei Elektronen besetzt sind (Highest Occupied Molecular Orbital, HOMO). Die drei energetisch höher liegenden, die von den unteren durch eine Energielücke getrennt sind, sind leer (Lowest Unoccupied Molecular Orbital, LUMO). Werden mehrere Ringe zu einer Kette zusammen gesetzt, in der sich Einfach- und Mehrfachbindungen entlang der Kette alternierend aneinander reihen, so dass eine vollständige Delokalisation der S-Elektronen über die Kette gegeben ist, dann kommt es infolge von Wechselwirkung zu einer Aufspaltung der Energieniveaus und damit zur Ausbildung von Energiebändern. Dabei entsteht aus den HOMOs das besetzte Valenzband und aus den LUMOs das leere Leitungsband.
11.4 Bildwiedergabe – Displays
475
Abb. 11.35. Struktur von PPV
Wird ein Elektron unter Energieaufwand vom Valenz- ins Leitungsband gehoben, bleibt im Valenzband ein Loch zurück. Beide Ladungsträger können über die Coulomb´sche Anziehung einen gebundenen Zustand eingehen, ein so genanntes Exziton bilden. Zerfällt das Exziton, dann wird die bei der Rekombination frei werdende Energie entweder in Form eines Photons oder als Wärme abgegeben. Die Energie des Photons entspricht ungefähr der Breite der Energielücke, Eg. Sie kann durch Substitution, Dotierung, Einbau von Seitenketten etc. gezielt verändert werden, so dass Licht mit beliebigen Farben erzeugt werden kann. Aufbau einer OLED Im einfachsten Fall wird ein organischer Halbleiter mit Metallelektroden versehen, an die eine Spannung von einigen Volt angelegt wird (Abb. 11.36 a). Als Kathode dient ein Metall mit kleiner ElektronenAustrittsarbeit, z.B. Ca, Mg, Cs, Al. Die Anode besteht aus einem Metall mit großer Austrittsarbeit, z.B. Indium-Zinn-Oxid (ITO), Au, Pt. Aus der Kathode werden Elektronen in das Leitungsband des organischen Halbleiter injiziert, die sich dann infolge des elektrischen Feldes durch die Schicht in Richtung Anode bewegen. Innerhalb eines Moleküls geschieht der Ladungstransport entlang konjugierter Mehrfachbindungen, das sind alternierend aufeinander folgende Einfach- und Mehrfachbindungen zwischen den Kohlenstoffatomen. Von Molekül zu Molekül erfolgt der Ladungstransport über Hopping-Prozesse. Die Beweglichkeit ist mit P | 10-3 cm2/(Vs) sehr niedrig im Vergleich zu den klassischen Halbleitern. Damit ein genügender Strom fließt, muss deshalb die Feldstärke sehr groß sein, was durch eine dünne organische Schicht erreicht wird. Ist beispielsweise die Schichtdicke d = 200 nm und die anliegende Spannung U = 5 V, so wird die Feldstärke E = U/d = 25 MV/m.
476
11 Bildaufnahme und -wiedergabe
Abb. 11.36. Energie-Orts-Diagramm einer OLED. a) Einschicht-OLED, K: Kathode, OHL: Organischer Halbleiter, A: Anode, EF: Fermi-Energie, LB: Leitungsband, VB: Valenzband, E: Elektrische Feldstärke. b) Zweischicht-OLED, ET: Elektronen-Transportband (n-Leiter), LT: Löcher-Transportband (p-Leiter)
Aus dem Valenzband des organischen Halbleiters können Elektronen in die Anode übertreten. In der Sprache der Halbleiterphysik sagt man, dass Löcher von der Anode in das Valenzband des Halbleiters injiziert werden. Aufgrund des elektrischen Feldes bewegen sich die Elektronen und die Löcher aufeinander zu und können unter Aussendung eines Photons strahlend rekombinieren. Der Wirkungsgrad dieser Einfachschichten ist nicht sehr gut, weil die Ladungsträger die komplette Schicht auch durchlaufen können, ohne zu rekombinieren. Der Wirkungsgrad kann deutlich verbessert werden, wenn zwei verschiedene Schichten eingebaut werden (Abb. 11.36 b) und zwar eine für den Elektronen-Transport optimierte Schicht ET und eine für den Löcher-Transport optimierte LT. An der Grenzfläche entsteht eine Potenzialbarriere für die Elektronen, die sich dort sammeln und mit den Löchern Exzitonen bilden, die dann rekombinieren. Dabei bilden sich 25% Singulett-Exzitonen (Elektronen- und Löcherspin antiparallel), die strahlend rekombinieren, während bei den 75% Triplett-Exzitonen (Elektronen- und Löcherspin parallel) die strahlende Rekombination verboten ist. Durch Dotierung mit Schwermetallen wie Pt und Ir gelingt es, den Spin umzudrehen und damit den internen Quantenwirkungsgrad auf nahezu 100% zu steigern. Display-Struktur Der Aufbau eines Pixels ist in Abb. 11.37 a) dargestellt. Die emittierten Photonen treten durch die transparente ITO-Anode aus. Die Dicke der organischen Halbleiterschicht ist etwa 200 nm. Bei der passiven Pixel-Matrix nach Abb. 11.37 b) sind zeilen- und spaltenförmig Elektroden angebracht. Werden an einem Überkreuzungspunkt beide aktiviert, leuchtet die OLED auf.
11.4 Bildwiedergabe – Displays
477
Abb. 11.37. Struktur eines OLED-Displays. a) Schichtaufbau eines einzelnen Pixels. b) Passive Pixel-Matrix
Computermonitore und Fernseher erfordern die schnelle aktive Ansteuerung einzelner Pixel, weshalb für jedes Pixel ein Stromtreiber auf dem Substrat integriert ist. Dies ist ein Dünnschichttransistor (TFT) aus Poly-Silicium oder amorphem Silicium. Eine typische Rasterung (pixel pitch) ist 4 Bildelemente pro Millimeter und Zeile. Mehrfarbige Bilder werden dadurch erzeugt, dass an jedem Bildpunkt nebeneinander drei verschiedene organische Halbleiter aufgebracht werden, die in den Grundfarben Rot, Grün und Blau leuchten und die unabhängig voneinander angesteuert werden. Das Aufbringen der organischen Filme auf das Substrat geschieht bei vergleichsweise kleinen Molekülen durch aufwendiges und teures Aufdampfen im Vakuum. Polymer-OLEDs (PLEDs) besitzen Moleküle mit langen Ketten, die löslich sind und aus der Lösung aufgebracht werden können. Dies kann z.B. durch Aufschleudern (spin coating) geschehen oder durch Siebdruck oder durch Aufspritzen mit einem modifizierten Tintenstrahldrucker. Dies erlaubt die kostengünstige Herstellung von Strukturen, wie sie in einem Display benötigt werden. Eigenschaften von OLEDs OLEDs liefern brillante Bilder mit einer typischen Leuchtdichte von 2 Lv = 100 cd/m . Im Gegensatz zu LCDs benötigen sie keine Polarisatoren und keine Hintergrundbeleuchtung, da sie Selbstleuchter sind. Sie sind deshalb auch gut von der Seite ablesbar. Der Betrachtungswinkel beträgt etwa 160q bei einem Kontrastverhältnis von besser als 100:1. OLEDs sind sehr schnell, so dass videofähige Bildschirme gebaut werden können. Sie sind einsetzbar in einem Temperaturbereich von –30 qC bis +70 qC. An Luft beträgt die Lebensdauer der OLEDs nur wenige Tage. Eine luftdichte
478
11 Bildaufnahme und -wiedergabe
Verpackung im Vakuum oder inerter Atmosphäre ist daher unabdingbar und ergibt Lebensdauern von über 10.000 h. Wenn es gelingt, eine dichte Verpackung mit Kunststofffolien herzustellen, sind auch flexible Displays möglich. Neben dem Einsatz der OLEDs in Displays ist auch daran gedacht, großflächige Beleuchtungen zu realisieren.
11.5 Literatur Ahlers RJ (2000) Handbuch der Bildverarbeitung. Expert Verlag, RenningenMalmsheim Eastman Kodak Company (1999) KAF Series Full-Frame CCD Sensors. Binning Mode Operation, Application Note DC 02-009 Eastman Kodak Company (1994) Application Node DS 00-001. Solid State Image Sensors Gonzalez RC, Woods RE (2002) Digital Image Processing. Prentice Hall, New Jersey Holst GC (1998) CCD Arrays, Cameras and Displays. SPIE Press, Bellingham, Washington Jähne B (2002) Digitale Bildverarbeitung. Springer Verlag Berlin Heidelberg New York Jahn H, Reulke R (1995) Systemtheoretische Grundlagen optoelektronischer Sensoren. Akademie Verlag, Berlin Knoll PM (1986) Displays. Hüthig, Heidelberg Lüder E (2001) Liquid Crystal Displays. Wiley, Chichester MacDonald LW, Lowe AC (1997) Display Systems. Wiley, Chichester Malacara D, Servín M, Malacara Z (1998) Interferogram Analysis for Optical Testing. Marcel Dekker, New York, Basel, Hong Kong Oppenheim AV, Schafer RW (1999) Zeitdiskrete Signalverarbeitung. R. Oldenbourg Verlag, München Wien Ott E (1997) Wissenswertes über CCD Kameras. PCO Computer Optics GmbH Theuwiesen AJP (1995) Solid-State Imaging with Charge-Coupled Devices. Kluwer Academics Publisher, Dorbrecht Selected Papers on CCD and CMOS Imagers (2003) SPIE Milestone Series Volume MS 177, Ed. Kang MG, SPIE PRESS, Bellingham Washington Walker JS (1996) Fast Fourier Transform. CRC Press Boca Raton, New York London Tokyo Williams TL (1999) The Optical Transfer Function of Imaging Systems. Institute of Physics Publishing, London Wu S-T, Yang D-K (2001) Reflective Liquid Crystal Displays. Wiley, Chichester
12 Augenschutz und Augensicherheit
Einleitung Das Auge ist unser wichtigstes Sinnesorgan. Rund 90% der Sinneseindrücke nehmen wir mit dem Auge wahr. Kein anderes Sinnesorgan vermittelt uns so viele Informationen. Durch und im Licht kann der Mensch seine Umgebung erkennen und sich darin orientieren. Licht bzw. Strahlung hat positive physiologische und psychologische Wirkungen; Licht und Strahlung sind für unser aller Gesundheit und für unser Wohlbefinden unabdingbar. Die positiven Effekte treten jedoch in einem eng begrenzten Bereich der Strahlungsintensität auf – zuviel Licht und Strahlung schaden. Wichtig ist es also, Haut und Augen gegen Negativ-Einflüsse jeglicher Art zu schützen. Gefährdet sind unsere Augen durch mechanische Einwirkungen, durch chemische Einflüsse und durch optische Strahlung, sei es aus natürlichen Quellen (Sonne) oder künstlichen Quellen (z. B. heiße Körper, Lichtbogen beim Schweißen). Weil gerade bei optischer Strahlung, im Gegensatz gegensätzlich zu anderen schädlichen Strahlungseinflüssen (z. B. ionisierende Strahlung), die Intensität in unserer Umwelt durch die Sonne bereits so hoch ist, dass es bereits zu Schädigungen kommen kann, hat man bei der Festlegung von Expositionsgrenzwerten keine großen Sicherheitsaufschläge berücksichtigen können. Der erste Abschnitt beschreibt den anatomischen Aufbau des Auges. Im zweiten Abschnitt werden einige der Gefahren aufgeführt, denen unsere Augen täglich ausgesetzt sind. Der Schwerpunkt liegt dabei auf den Einwirkungen optischer Strahlung. Im Berufsleben ist jede Person einer Vielzahl von Gefahren ausgesetzt, auch für das Auge. In diesem Abschnitt werden die Richtlinien, Gesetze und Normen für den Augenschutz zusammengefasst und erläutert. Eine Auswertung der Unfallanzeigen bezüglich Augenverletzungen der Steinbruchs-Berufsgenossenschaft (www.stbg.de) hat ergeben, dass 56% der verletzten Mitarbeiter zum Zeitpunkt des Unfalls keine Schutzbrille trugen. Bei weiteren 22% war die Schutzbrille nicht korrekt angepasst, für die Tätigkeit nicht geeignet oder sie wurde zwar getragen, führte aber trotzdem zu einer Verletzung. 13% der Betroffenen waren sich einer möglichen Gefahr zum Unfallzeitpunkt überhaupt nicht bewusst, da sie am Arbeitsgeschehen nicht unmittelbar beteiligt waren. Auch wenn es sich hier in erster Linie um den Schutz vor mechani-
480
12 Augenschutz und Augensicherheit
schen Einwirkungen handelt, so zeigt diese Statistik doch eindrucksvoll, welchen Gefahren unsere Augen im Berufsleben ausgesetzt sind. Das Ergebnis legt dar, dass zum Thema Augen und Augenschutz großer Gesprächs- und Handlungsbedarf besteht. Der Schutz vor optischer Strahlung mag sicherlich komplexer zu bewerten sein: Blendungen und Verblitzungen des Auges sind meist reversibel und werden relativ schnell, nach Stunden oder Tagen repariert. Langandauernde oder immer wieder kehrende Belastungen mit intensiver UVVIS-IR-Strahlung machen sich erst nach langer Zeit, im Verlauf von Jahren als Schäden bemerkbar. Und meist sind diese dann irreversibel, also nicht mehr vollständig zu beheben und zu heilen.
12.1 Notwendigkeit für Augenschutz 12.1.1 Aufbau des Auges Die wesentlichen Komponenten des menschlichen Auges sind in Abb. 12.1 dargestellt. Die wesentlichen Bestandteile eines Auges sind: x Hornhaut x Bindehaut
Abb. 12.1. Längsschnitt durch das menschliche Auge (nach Siekmann)
12.1 Notwendigkeit für Augenschutz
x x x x x x
481
Iris oder Regenbogenhaut Linse Glaskörper Netzhaut mit der Fovea, dem Ort des schärfsten Sehens Aderhaut Lederhaut.
Schädigungen können durch vielerlei Einwirkungen auftreten. Bei mechanischen und chemischen Gefährdungen ist dies offensichtlich; anders hingegen verhält es sich bei Schädigungen durch optische Strahlung. Diese kann auftreten beim Schweißen und Schneiden mit Brennern, beim Umgang mit Lasern oder beim Arbeiten an elektrischen Anlagen. Die Eindringtiefe optischer Strahlung ist von der Wellenlänge abhängig (Abb. 12.2). Während kurzwellige Strahlung (UV-Strahlung) und langwellige IR-Strahlung bereits an der Oberfläche von Haut oder Auge absorbiert werden, dringt die sichtbare Strahlung und die im nahen infraroten Spektralbereich tief ins Gewebe oder in die Haut ein. Auch sind Art und Schwere eines durch optische Strahlung hervorgerufenen Effekts von der Intensität der Strahlung und von der langfristigen Dosis abhängig.
Abb. 12.2. Eindringtiefe optischer Strahlung verschiedener Wellenlängenbereiche in das Menschliche Auge (Quelle: Siekmann)
482
12 Augenschutz und Augensicherheit
12.1.2 Optische Strahlung - Begriffsbestimmung Optische Strahlung ist die elektromechanische Strahlung im Wellenlängenbereich zwischen 100 nm und 1 mm. Zur optischen Strahlung zählen ultraviolette, sichtbare und infrarote Strahlung. Die Übergänge zwischen den einzelnen Bereichen sind für jeden Menschen verschieden, insbesondere auch vom Alter abhängig. Die im folgenden angegebenen Grenzen werden von der CIE (Central Internationale Electrotechnique) empfohlen. Ultraviolette Strahlung (UV-Strahlung) ist die Strahlung im Wellenlängenbereich von 100 nm bis 400 nm. UV-Strahlung tritt intensiv beim Schweißen, bei intensiver Sonneneinstrahlung, bei der Kunststoffhärtung oder bei medizinischen Therapien auf. UV-Strahlung hoher Intensität schädigt die vorderen Augenteile. Fotochemische Reaktionen in den Epithelzellen verursachen Entzündungen der Hornhaut (Photo-Keratitis) oder der Bindehaut (Photo-Konjunktivitis). Meist hat man das Gefühl, Sand in den Augen zu haben; die Entzündung ist äußerst schmerzhaft. Andererseits handelt es sich hierbei meist um eine reversible Reaktion des Auges auf eine intensive UVStrahlung. Hingegen verursacht eine langandauernde UV-Strahlungsbelastung eine Trübung der Augenlinse (Grauer Star, Katarakt). In der Augenlinse werden keine neuen Zellen nachgebildet. Weil der Prozess durch eine irreversible fotochemische Reaktion an Eiweißmolekülen ausgelöst wird, ist die Schädigung des Auges irreparabel. Es führt zu massiven Beeinträchtigungen des Sehvermögens bis hin zur Erblindung. In erster Linie trifft es Personen, die sich beruflich meist im Freien aufhalten, beispielsweise Straßenarbeiter, Landwirte oder Seeleute. Mit dieser Berufserkrankung vergleichbar ist der sogenannte Altersstar, der oft erst ab dem siebten Lebensjahrzehnt auftritt. Sichtbare Strahlung (VIS-Strahlung) ist die optische Strahlung, die unmittelbar einen visuellen Eindruck hervorrufen kann. Dies ist Strahlung im Wellenlängenbereich von 380 nm bis zu 780 nm. Das CIE empfiehlt, auch nur diesen Bereich als Licht zu bezeichnen. Dass das Sehen überhaupt ermöglicht wird, liegt daran, dass das Licht die Netzhaut ohne nennenswerte Abschwächung erreichen kann. Intensive sichtbare Strahlung kann die Netzhaut durch Erwärmung bleibend schädigen. Immer wieder wird bei einer Sonnenfinsternis beobachtet, dass sich Personen durch den ungeschützten Blick in die Sonne die Netzhaut bleibend thermisch schädigen. Daneben kann bei intensiver Belastung mit kurzwelliger sichtbarer Strahlung die Netzhaut fotochemisch geschädigt werden (Blaulichtgefährdung, Photoretinitis). Die ICNIRP hat dazu auch eine Wichtungsfunktion festgelegt. Die höchste Schädigungspotenz tritt bei Strahlung mit einer Wellenlänge von 440 nm auf. Bei hohen Leuchtdichten oder schnellen, kurzfristigen Leuchtdichteunterschieden kann durch Blendung die visuelle Wahrnehmung behindert werden, wodurch mittelbare Gefahren auftreten.
12.1 Notwendigkeit für Augenschutz
483
Infrarote Strahlung (IR-Strahlung) ist die optische Strahlung im Wellenlängenbereich von 780 nm bis 1 mm. IR-Strahlung geht von rotglühenden Metallen, Metall- oder von Glasschmelzen aus. Sie kann Schädigungen der Netzhaut und Linse verursachen. Langandauernde (10 bis 30 Jahre) IRStrahlung zwischen 780 nm und 3000 nm verursacht den grauen Star (Feuerstar, Glasbläserstar). Die Schädigung beruht meist auf einer Erwärmung des Gewebes; sie ist irreversibel. Das berufliche Risiko ist jedoch hier nicht sehr hoch, da die durch Schmelzen emittierte intensive IRStrahlung unmittelbar zu Schmerzen und Verbrennungen der Haut führt. Künstliche optische Strahlung ist die optische Strahlung von künstlichen Quellen. Natürliche Strahlung ist die Strahlung von natürlichen Quellen; in erster Linie ist darunter Sonnenstrahlung zu verstehen. Besonders zu betrachten ist die Laserstrahlung. Die Kollimierbarkeit und Fokussierbarkeit eines Laserstrahls kann schon bei geringen Leistungen oder Energien zu Netzhautschädigungen führen. Von den bekannten Schadensmechanismen im Auge her gesehen, scheint es jedoch keine Hinweise darauf zu geben, dass sich kohärente monochromatische Strahlung grundlegend von inkohärenter Breitbandstrahlung unterscheidet. 12.1.3 Expositionsgrenzwerte Ein Expositionsgrenzwert ist der maximal zulässige Wert für die Einwirkung optischer Strahlung auf die Augen oder die Haut (BG-Information 5006). Diese werden von der ICNIRP (Internationale Kommission zum Schutz vor Nichtionisierender Strahlung) empfohlen und meist in Health Physics veröffentlicht. Heute gelten folgende Expositionsgrenzwerte (Auszug aus BG-Information 5006): x Der Tagesexpositionsgrenzwert für die effektive Bestrahlung durch UVStrahlung auf die Augen beträgt 30 J/m² (im Wellenlängenbereich 180 bis 400 nm). x Der Jahresexpositionsgrenzwert für die effektive Bestrahlung für die Dauer eines Jahres durch UV-Strahleneinwirkungen im Wellenlängenbereich 180 nm bis 400 nm beträgt 4.000 J/m². x Im Bereich des Vakuum-UV bei <180 nm gelten die Grenzwerte wie bei 180 nm. x Die Expositionsgrenzwerte zum Schutz vor thermischer Netzhautgefährdung im Bereich von 380 nm bis 1400 nm folgen einer recht komplizierten Abhängigkeit von Einwirkdauer und Winkelausdehnung der Quelle (DIN EN 14255 und BG-Information 5006). x Zum Schutz vor langfristigen Schädigungen der Augenlinse (Linsentrübungen, Katarakte auf Grund von Kumulationswirkungen über 10 bis 30 Jahre) gilt für die maximale Bestrahlung 3u106 J/m² während einer täglichen Arbeitszeit von 8 h für den Bereich von 780 nm bis 3.000 nm.
484
12 Augenschutz und Augensicherheit
Um die Exposition der Augen gegenüber inkohärenter optischer Strahlung zu ermitteln, werden Verfahren angewandt, die in den EN Normen 14255-1 (für UV-Strahlung) und 14255-2 (für Licht und IR-Strahlung) beschrieben sind [9]. Der Schutz vor Strahlung aus Lasereinrichtungen und die Klassifizierung von Laserstrahlquellen sind in der Normenreihe DIN EN 60825 (VDE 0837) festgelegt. Die Übergänge zwischen den einzelnen Spektralbereichen sind selbstverständlich fließend. Zu einer exakten Festlegung muss man genau die einzelnen Wechselwirkungen der Materie, im hier betrachteten Fall des Augengewebes Hornhaut und Netzhaut, mit der auftreffenden Strahlung betrachten. Bei Laserstrahlen und kurzen Laserstrahlpulsen kommen die lateralen und zeitlichen Strukturen der Laseremission hinzu. Auch ist die Durchlässigkeit des Auges vom Alter der zu schützenden Person abhängig. Mit zunehmenden Alter verschiebt sich die Transmission in den roten Spektralbereich; blaues Licht wird dann im vorderen Augenteil absorbiert. 12.1.4 Lichttransmission und Grenzwerte bei der Prüfung von Augenschutzprodukten Den durch ICNIRP vorgegebenen Grenzwerten versuchen die Prüfnormen im Augenschutz Rechnung zu tragen. So beträgt bei Filtern der maximal -4 erlaubte spektrale Transmissionsgrad im UV-Bereich 3u10 % (zwischen 210 nm und 313 nm). Die maximal erlaubten IR-Transmission richten sich je nach Anwendungsfall und sind immer nach der sicheren Seite hin ausgelegt. Augenschutzgeräte sollen es erlauben, das Umfeld zu sehen, in dem sich die zu schützende Person bewegt. Eine entscheidende Größe dabei ist der Lichttransmissionsgrad Wv. Dieser ist definiert als das Integral über den mit der Augenempfindlichkeitskurve V( O ) bewerteten, spektralen Transmissionsgrad W (O ) im Wellenlängenbereich von 380 nm bis 780 nm. Er wird bei Filtern allgemein auf die spektrale Strahlungsleistung ĭe, Ȝ der Normlichtart A bezogen (ein Planck’scher Strahler mit einer Temperatur von 2.856 K, vergleichbar mit Kunstlicht). Es gilt für den Lichttransmissionsgrad Wv : 780nm
Wv
³
ĭ
e, O 380nm 780nm
³
V (O ) W (O )dO (12.1)
ĭe, O V (O )dO
380nm
Wv : Lichttransmissionsgrad W (O) : spektraler Transmissionsgrad V(O): Augenempfindlichkeitskurve )e,O : spektrale Strahlungsleistung
12.2 Varianten im Augenschutz
485
Die V(O)-Kurve bezieht damit die Lichttransmission auf das helladaptierte Auge. Für eine Strahlung errechnet und summiert man bei der Wellenlänge O die fotometrische Größe, indem man die radiometrische Größe mit der spektralen Empfindlichkeit des Auges für fotopisches Sehen multipliziert. Im Augenschutz wird nur das fotopische Sehen (Tageslichtsehen) betrachtet. Das skotopische Sehen (Nachtsehen) wird beim Augenschutz nicht betrachtet, da an Arbeitplätzen allgemein auf ausreichende Beleuchtung geachtet werden sollte (Abschn. 7). Messtechnisch vereinfacht kann man den Lichttransmissionsgrad auch als das Verhältnis von durchgelassener Strahlungsleistung zur auffallenden Strahlungsleistung ansehen (wenn man die Detektoreinheit auf das fotopische Sehen adaptiert). Dies geschieht durch die Kombination eines geeigneten Filters mit einem Fotodetektor. Über geeignete Filter mit bekanntem Transmissionsverhalten wird das System kalibriert. Es gilt: Wv
ĭe, IJ
(12.2)
ĭe,0
Für die unterschiedlichen Filter werden verschiedene Schutzstufen definiert. Im Schweißerschutz errechnet sich die Schutzstufe N aus der Lichttransmission gemäß folgender Gleichung: N
§ 7 · int ¨1 log W v ¸ © 3 ¹
(12.3)
Die Schutzstufe wird auf jeweils eine ganze Zahl gerundet. Die logarithmische Abhängigkeit entspricht dabei dem physiologischen Helligkeitsempfinden. Für unterschiedliche Schweißverfahren werden unterschiedliche Schutzstufen empfohlen. Dabei ist festgelegt, dass die maximale Strahlenbelastung 730 cd/m² nicht übersteigen soll. Richtig angewandt schützen Schweißerschutzfilter bereits vor einer Blendung. Gleichzeitig lassen sie im Lichtbogen das Arbeitsumfeld noch erkennen.
12.2 Varianten im Augenschutz Abbildung 12.3 zeigt das Produktspektrum an unterschiedlichen Augenschutzgeräten, das im DIN CERTCO Prüf- und Zertifizierungszentrum in Aalen geprüft und bewertet wird. Dieses Bild gibt einen Überblick über die Fülle von Augenschutzgeräten. So groß wie ihre Vielfalt, so groß ist die Anwendungsbreite von Augenschutzgeräten.
486
12 Augenschutz und Augensicherheit
Abb. 12.3. Augenschutzgeräte
12.2.1 Schutz vor mechanischen Gefährdungen Mechanische Gefährdungen des Auges können sich durch Fremdkörper wie Stäube und Festkörper (z. B. Späne, Splitter, Körner) ergeben, die das Auge treffen und verletzen. Stäube können zwischen Lid und Augapfel gelangen und zu Reizungen oder zu Entzündungen führen. Treffen Festkörper auf das Auge, besteht die Gefahr, dass sie durch Eindringen in die Hornhaut diese verletzen. Die Gefährdung des Auges ist nicht nur von der Form der Festkörper, sondern auch von der kinetischen Energie abhängig, mit der das Auge getroffen wird. Zu schwerwiegenden Verletzungen beim Umgang mit Handwerkszeug kommt es, wenn ein Werkzeug abgleitet oder splittert, und das Auge von Spänen, Splittern oder auch von der Spitze des Handwerkszeuges getroffen wird. Neben oberflächlichen Verletzungen werden oft auch die Hornhaut und nicht selten das Augeninnere schwer geschädigt. Am gefährlichsten sind beispielsweise Schraubendreher, Ahlen, Anreißnadeln, Schaber, Scheren und Messerklingen. Durch starke Schläge und Stöße werden das Auge und seine nähere Umgebung oft so schwer verletzt, dass der Augapfel in seiner Form zerfällt und die Sehfunktion zerstört wird. Schläge und Stöße können verursacht werden durch bewegte Gegenstände wie wegfliegende Brocken bei einer Explosion, Teile zerborstener Schleifscheiben und aufschlagende Bälle sowie durch Anstoßen des Kopfes an festen Gegenständen. Abbildung 12.4 zeigt eine Augenverletzung durch das Eindringen eines Spans in die vorderen Augenpartien.
12.2 Varianten im Augenschutz
Abb. 12.4. Augenverletzung www.stgb.de)
durch
eine
Metallborste
im
Auge
487
(Quelle:
12.2.2 Chemische Gefährdungen Chemische Gefährdungen können von festen, flüssigen oder gasförmigen Substanzen, von Dämpfen, Nebel oder Rauch ausgehen. Chemikalien können sich im Augenwasser lösen, zu Reizungen, Verätzungen oder allergischen Reaktionen führen. Säuren und Laugen können das Auge schwer schädigen. So sind in der chemischen Industrie auf allen Seiten geschlossene Schutzbrillen vorgeschrieben, welche Schutz vor dem Eindringen von Flüssigkeitsspritzern und –tropfen bieten. Die Sichtscheiben sind heute entweder aus Mineralglas oder Polycarbonat; auf jeden Fall gegenüber Chemikalien so inert, dass die zu schützende Person den Gefahrenbereich noch verlassen kann. 12.2.3 Thermische Gefährdungen Hitze wird durch feste oder flüssige Körper (Berührungswärme), über Gase (Konvektionswärme) oder durch Infrarotstrahlung übertragen, wobei es zur Austrocknung und zu Hornhautreizungen kommen kann. Kälteeinwirkungen, ausgelöst beispielsweise bei längerem Aufenthalt in kalter Witterung oder Kühlhäusern, kann zum Tränen und zu Erfrierungen führen. Während man sich gegen die schädliche Wirkung von IR-Strahlung mit einem geeigneten Filter schützen kann, helfen ansonsten allseits geschlossene Brillen nur bedingt. Etwas anders verhält es sich beim Beschlagen. Dies kann durch eine geeignete Beschichtung weitgehend unterbunden werden. 12.2.4 Biologische Gefährdungen Gegen biologische Agenzien, wie Bakterien, Viren oder Sporen kann man sich nur durch ein geschlossenes Augenschutzgerät schützen. In mikrobiologischen Labors mag es notwendig sein, sich gegen Flüssigkeitsspritzer zu schützen.
488
12 Augenschutz und Augensicherheit
12.2.5 Elektrische Gefährdungen Bei Schaltarbeiten oder Kurzschlüssen in elektrischen Verteilungsanlagen können Überschläge und elektrische Störlichtbögen entstehen. Hohe Temperaturen, ein starker UV-Anteil und gesplitterte Teile oder Späne können Auge und Gesicht erheblich schädigen. 12.2.6 Arten von Augen- und Gesichtsschutz Für die oben genannten Gefährdungen müssen Sichtscheiben und Tragkörper ausreichende mechanische Festigkeit aufweisen und gegen Temperatureinwirkung und Chemikalien beständig sein. Von den verwendeten Materialien darf keine allergische Reaktion ausgelöst werden. Sichtscheiben können neben dem mechanischem Schutz noch andere Merkmale aufweisen, beispielsweise beschlaghemmend oder kratzfest sein. In der Regel wird Einscheiben-Sicherheitsglas thermisch oder chemisch behandelt oder gehärtet, um die Bruchfestigkeit zu erhöhen. Verbundsicherheitsgläser bestehen aus mehreren miteinander verklebten Schichten. Normalerweise übernimmt eine der Schichten die Filterfunktion während die andere, meist die dünnere augenseitige Sichtscheibe die Bruchfestigkeit gewährleistet. Sofern gleichzeitig ein Schutz gegen glühende Teilchen, gegen mechanische Einwirkungen und eine ausreichend gute Filterfunktion gewährleistet sein muss, kann die Sichtscheibe mit Filterwirkung durch eine Vorsatzscheibe geschützt werden. Darüber hinaus kann Augen- und Gesichtsschutz auch aus Draht- oder Kunststoffgewebe bestehen (z. B. Waldarbeitervisiere). 12.2.7 Komponenten eines Augenschutzgerätes und Einsatzfelder Eine Augenschutzgerät besteht aus folgenden Komponenten: x Tragkörper halten die Sichtscheibe am gewünschten Ort. Verbindungselemente sind Bügel, Kopfbänder oder Traghilfen zur Befestigung an Schutzhelmen x Sichtscheiben gegen mechanische Einwirkungen sind farblose Sichtscheiben mit einem Lichttransmissionsgrad von mehr als 74%. Sicherheitssichtscheiben müssen mindestens eine erhöhte Festigkeit (Test durch Kugelfall) aufweisen. x Filtersichtscheiben sind gefärbte, getönte oder dielektrisch beschichtete Sichtscheiben, die je nach Schutzfunktion vor ultravioletter Strahlung,
12.2 Varianten im Augenschutz
489
Blendung durch sichtbare oder infrarote Strahlung oder gegen Laserstrahlung schützen. x Schilde schützen neben den Augen auch Gesicht und Hals. Beispiele dafür sind Schweißerschutz-, Kopf- oder Handschilde. Meist bestehen diese aus lichtundurchlässigen Materialien, die genügend widerstandfähig gegen mechanische und thermische Einwirkungen sind. Im Schild ist ein Fenster zur Aufnahme der Filter und meist auch Vorsatzscheiben vorgesehen. Andere Schilde sind ganz aus durchsichtigen Materialien gefertigt. Für den Einsatz bei Feuerwehr, Polizei, oder auch bei Minensuchern, müssen diese Scheiben sowohl gute optische Qualitäten aufweisen, als auch einen ballistischen Schutz bieten. x Schutzschirme und Visiere bestehen aus Sicherheitssichtscheiben und Traghilfen, die Augen, Gesicht und Teile des Halses schützen. Schutzhauben schützen Kopf und Hals sowie je nach Ausführung die oberen Schulterbereiche. Man trägt sie direkt auf dem Kopf, befestigt sie an einem Schutzhelm oder zieht sie über denselben. 12.2.8 Schutz vor optischer Strahlung Wie bereits ausgeführt, kann jegliche Art intensiver optischer Strahlung zu Schäden an Augen und Haut führen. Arbeitnehmer sind bei der Berufsausübung einer Vielzahl künstlicher optischer Strahlquellen ausgesetzt. Die Spanne reicht dabei von Bildschirmarbeitsplätzen bis hin zum Lichtbogen beim Schweißen, als Beispiel für eine künstliche inkohärente Strahlungsquelle, oder zu Lasermaterialbearbeitungsanlagen, als Beispiel für eine künstliche kohärente Strahlungsquelle. Oft setzt man sich auch bewusst intensiver Bestrahlung aus (natürlich beim Wintersport, künstlich in Solarien). Auch hier sind Schutzmaßnahmen erforderlich. Die Strahlungsexposition kann sowohl zu akuten Schäden (Hornhautoder Bindehautentzündung, Hautrötung, kurzzeitige Blendung), als auch zu Spätschäden führen (z. B. Trübung der Augenlinse, Glasbläserstar oder Hautkrebs). Dabei bestimmen Einwirkdauer, Strahlenart, Wellenlänge und Belastung die möglichen Schädigungen. Abbildung 12.5 zeigt ein während des Schweißens verblitztes Auge.
Abb. 12.5. Verblitztes Auge (Quelle: www.stbg.de)
490
12 Augenschutz und Augensicherheit
Ende 2004 war mit der Veröffentlichung der EU-Richtlinie Schutz vor optischer Strahlung zu rechnen. Daher wurde die Fertigstellung der BGV B9: Schutz vor optischer Strahlung gestoppt. Um überhaupt Expositionsgrenzwerte für Glasbläser, Beleuchter, Schweißer, Hochofenarbeiter, IRTrockners und für Solarien angeben zu können, hat die Berufsgenossenschaft für Feinmechanik und Optik eine BGI-Schrift herausgegeben: Expositionsgrenzwerte für künstliche optische Strahlung. Die dort aufgeführten Werte entsprechen weitgehend den ICNIRP-Empfehlungen. Eine gute aktuelle Übersicht über den Schutz vor optischer Strahlung, nicht allein wie der Titel darlegt über den Schutz vor Laserstrahlung, gibt Sutter.
12.3 Zwei besondere Arten von Augen- und Gesichtsschutz Zwei Bespiele erläutern, welche Anforderungen man heute als verantwortlicher Sicherheitsingenieur in einem Betrieb an Augenschutzgeräte stellen sollte. 12.3.1 Automatische Schweißerschutzfilter Historisch wurde vor nunmehr über 100 Jahren der Bedarf von Augenschutzgeräten, welche neben der mechanischen Schutzfunktion auch gegen optische Strahlung schützen sollen, mit dem Nutzen von elektrischen Schweißanlagen offensichtlich. So entwickelte sich während zunehmender Industrialisierung ein Bewusstsein, dass die Augen vor intensiver optischer Strahlung zu schützen sind, ausgelöst durch eine Reihe von Augenunfällen (Verblitzen) beim Elektroschweißen. Zum Schutz vor den hohen Leuchtdichten beim Schweißen gibt es verschiedene Schutzvorrichtungen. Zum ersten sind dies die klassischen Schweißerschutzfilter, durch die man den Schweißprozess noch beobachten kann. Hierbei handelt es sich meist um eingefärbte Mineralgläser. Für geringe Schutzanforderungen kann man auch eingefärbte Polycarbonatscheiben benutzen. Der vorrangige Schutz ist dabei der Blendschutz, der tiefer liegt als die Schädigungsgrenze. Wie zuvor beim Lichttransmissionsgrad bereits ausgeführt, werden Schweißerschutzfilter entsprechend der Schutzstufe auf einer logarithmischen Skala eingestuft. Diese Beziehung wurde so gewählt, weil bei der Auswahl der Filter der Blendschutz im Vordergrund steht. Passive Schweißerschutzfilter mit für das Elektroschweißen ausreichender Schutzstufe haben jedoch einen großen Nachteil. Ohne Lichtbogen ist das Schweißgut nicht zu erkennen. Der Schweißer ist also gezwungen, am Schweißschild vorbeizuschauen, die Elektrode anzusetzen und gleichzeitig
12.3 Zwei besondere Arten von Augen- und Gesichtsschutz
491
mit dem Zünden den Schutzschild mit dem Filter schnell genug vor die Augen zu führen. Meist dauert dieser Vorgang zu lange; gerade Berufsschweißer sind also einer zu hohen Belastung mit optischer Strahlung ausgesetzt. Dies hat vor nunmehr 20 Jahren zur Entwicklung sogenannter elektrooptischer bzw. automatischer Schweißerschutzfilter geführt. Diese Filter bieten den Vorteil, im Hellzustand eine hohe Transmission aufzuweisen. Durch den Lichtbogen ausgelöst, schalten diese Filter dann automatisch in einen dunkleren Zustand, also in einen mit hoher Schutzstufe. Auch im geschalteten Zustand liefert der Lichtbogen genug Strahlung, um die Bearbeitungsszene erkennen zu können. Die Belastung des Auges ist jedoch so gering, dass ein Verblitzen des Auges nicht stattfindet.
Abb. 12.6. Beispielse für automatische Schweißerschutzfilter; rechts Schweißhelm
Ein automatischer Schweißerschutzfilter (ADF, Abb. 12. 6) besteht aus einer Liquid-Crystal-Schicht (LCD) zwischen zwei Polarisationsfolien. Eine dieser Folien dient als Polarisator, die andere als Analysator. Normalerweise sind beide Folien senkrecht zueinander angeordnet, also lichtundurchlässig. Die Kristallstruktur der Moleküle in der LCD-Schicht ist jedoch so angeordnet, dass, wenn kein elektrisches Feld anliegt, auf das LCD treffendes polarisiertes Licht in seiner Schwingungsebene um 90° gedreht wird. Somit wird insgesamt im nichtgeschalteten Zustand das auf den ADF treffende Licht durch den Polarisator linear polarisíert. Durch den LCD wird die Schwingungsebene um 90° gedreht, wodurch es den senkrecht zum Polarisator ste-
492
12 Augenschutz und Augensicherheit
henden Analysator passieren kann. Der ADF ist transparent. Da nicht alles Licht transmittiert wird, beträgt die Schutzstufe hier etwa 3 bis 4. Durch einen externen Lichtbogen angesprochen, legt die Sensorik eine Spannung an die LCD-Zelle. Dadurch richten sich die LC-Moleküle anders aus. Das im Polarisator linear polarisierte Licht wird nicht mehr in seiner Schwingungsebene gedreht. Der ADF wird dadurch absorbierend – er schaltet in den so genannten Dunkelzustand. Je nach angelegter Spannung können unterschiedliche Dunkelzustände, d. h. unterschiedliche Schutzstufen (9 bis 13) geschaltet werden. Komplettiert wird die LCD-Zelle durch je einen passiven Filter für den UV- und den IR-Bereich. Zum weiteren mechanischen Schutz dienen noch Vorsatz- und Hinterlegscheiben. Alle diese Filter- und Sicherheitsscheiben können miteinander verklebt sein. Die grundlegenden Spezifikationen dieser automatisch schaltenden Schweißerschutzfilter sind mit denen anderer Filter vergleichbar. Hinzu kommen noch folgende Besonderheiten, die entsprechend der Prüfnorm EN 379 untersucht werden: x Homogenität: die Transmission am linken und rechten Durchblickpunkt darf sich nur wenig voneinander unterscheiden. Die Filter müssen also gleichmäßig dunkel schalten. x Lichtdiffusion: die Streulichteigenschaften vom Hellzustand müssen auch bei den Dunkelstufen vorhanden sein. Ist dies nicht der Fall, muss sich das Augen zu sehr anstrengen, um ein kontrastreiches Bild als solches noch gut erkennen zu können. x Schaltzeit und Lichttransmission bei Temperatur: die Schaltzeit vom Hellzustand in den Dunkelzustand muss schnell genug erfolgen, so dass das Augen beim Zünden des Lichtbogens nicht geblendet wird. Die Lichttransmission in den Dunkelzuständen muss stimmen. Diese Eigenschaften müssen im Bereich von +55°C bis –5°C möglich sein. 12.3.2 Laserschutzfilter Laserschutzfilter und Laser-Schutzbrillen bzw. Laser-Justierbrillen werden beim Umgang mit Laserstrahlquellen eingesetzt. Darin sind auch LEDStrahlquellen eingeschlossen. Laserschutzfilter unterscheiden sich grundlegend von allen anderen Schutzfiltern. Zunächst ist festzuhalten, dass die Schutzstufen bei Laserschutzfiltern dekadisch angeordnet sind. Mit jeder Schutzstufe ändert sich die maximale Belastbarkeit um den Faktor 10. Laserschutzfilter schützen nicht über den gesamten Spektralbereich, sondern ihr Schutz gilt immer nur für einen eingeschränkten Spektralbereich. Entsprechend DIN EN 60825-1:2001 (VDE 0837) werden Laseranlagen verschiedenen Klassen zugeordnet. Diese Klasseneinteilung macht für den
12.3 Zwei besondere Arten von Augen- und Gesichtsschutz
493
Nutzer die mögliche Gefährdung durch die Anlage sofort ersichtlich. Mit zunehmender Klasse steigt auch die Gefährdung. Für die richtige Klassifizierung ist der Hersteller der Anlage zuständig. Entsprechend der Klasse hat dann der Nutzer die geeignete Schutzbrille (Filter im Tragkörper) auszusuchen. Grundsätzlich gilt, dass der Filter nur gegen zufällig auftreffende Laserstrahlung schützen kann und unter keinen Umständen dazu geeignet ist, direkt in den Strahl zu blicken. Mit der Auswahl der richtigen Schutzbrille ist also immer auch eine Gefährdungsanalyse durchzuführen. Dabei sind folgende Fragen zu klären: An welcher Stelle der Anlage kann Laserstrahlung austreten. Sind bauliche Maßnahmen zum Laserschutz erforderlich? Wie ist das Strahlführungssystem beschaffen? Wird der Laserstrahl frei über Spiegel geführt oder wird ein fasergekoppeltes System eingesetzt? Bei letzterem ist abzuschätzen, ob die Faser brechen und somit Strahlung ungehindert austreten kann. Welche Eigenschaften soll der Laserstrahl am Wirkort aufweisen? Trifft der Laserstrahl kollimiert oder fokussiert auf den Wirkort? In der Materialbearbeitung ist auf die Art der Materialien zu achten. Viele Werkstoffe reflektieren den Laserstrahl sehr stark; gekrümmte Oberfläche kollimieren oder fokussieren den Laserstrahl wieder. Welche Wellenlänge hat der Laserstrahl? Wie sieht das zeitliche Profil des Laserstrahls aus? Handelt es sich um einen Dauerstrich- oder um einen gepulsten Laser. Auswahl der richtigen Laserschutzbrille / Laserjustierbrille Die richtige Auswahl einer Laserschutzbrille bzw. einer Laserjustierbrille muss den Vorgaben folgen, wie sie in der Norm DIN EN 207 für Laserschutzbrillen festgelegt sind. DIN EN 208 legt dies für Laserjustierbrillen fest. Laserschutzbrillen müssen die Intensität der Laserstrahlung auf ein ungefährliches Maß zu reduzieren. Letzteres wird von der DIN EN 60825 vorgegeben und als MZB-Wert (MZB: maximal zulässige Bestrahlung) bezeichnet. Diese Schutzfunktion kann entweder durch Absorption oder durch Reflexion erreicht werden. Die Schutzstufe N wird immer abgerundet.
W O d E
MZB
E: Leistungsdichte
/E
W O d H MZB / H
(12.4)
H: Energiedichte
Für die Schutzstufe N aus der Transmission gilt:
N
int > log W O @
(12.5)
Bei der Prüfung nach DIN EN 207 werden Laserschutzfilter auch einer Laserbelastung unterzogen. Dies bedeutet, dass der Transmissionsgrad
494
12 Augenschutz und Augensicherheit
sich während einer 10 s- bzw. 100 Pulse-Prüfdauer eines Laserschutzfilters nicht ändern darf. Der Filter darf während dieser Zeit nicht durchbohrt werden; er darf natürlich auch nicht zerspringen. Er darf aber aus einem Verbundglas bestehen, also reißen. Jedoch darf die Transmission nicht abnehmen. Gerade bei Ultrakurzpulsern kann es passieren, dass der Filter reversibel oder irreversibel bleicht. Diese Prüfung soll dem Benutzer genug Zeit geben, den Gefahrenbereich zu verlassen. Abbildung 12.7 zeigt beispielhaft die Prüfung einer Laserschutzbrille bei 532 nm.
Abb. 12.7. Prüfung einer Laserschutzbrille bei 532 nm (Quelle: Bayerisches Laserzentrum BLZ Erlangen)
Aus Laserbelastbarkeit und Transmissionsgrad (meist als optische Dichte angegeben) ergibt sich – aus Sicherheitsüberlegungen grundsätzlich auf die nächste ganze Zahl abgerundet! – die Schutzstufennummer. Die Schutzstufennummer ist also eine gemeinsame Größe, welche sich über die optische Dichte und die Leistungs- bzw. Energiedichte definiert, bei welcher die Laserbelastbarkeit durchgeführt wurde. Der Wellenlängenbereich von 180 nm bis 1 mm wird dabei in drei Gruppen eingeteilt: x UV 180 bis 315 nm: Strahlung wird in der Hornhaut absorbiert.. x UV, VIS, NIR >315 bis 1400 nm: Strahlung wird auf die Netzhaut fokussiert x MIR, FIR >1,4 µm bis 1 mm: Strahlung wird in der Hornhaut absorbiert Jede dieser Gruppen besteht wieder aus drei Spalten, die für die unterschiedlichen Laserarten die Angaben von maximal möglichen Leistungs-
12.3 Zwei besondere Arten von Augen- und Gesichtsschutz
495
und Energiedichten enthalten. Dabei werden die Laserarten Dauerstrichlaser (D), Impulslaser (I), Riesenimpulslaser (R) und modengekoppelte Impulslaser (M) unterscheiden. Zur Auswahl der richtigen Schutzstufe sollte man dem Schema nach Tabelle 12.1 folgen. Tabelle 12.1. Zeitliche Abgrenzung der Laserarten für die Auswahl der Laserschutzfilter nach DIN EN 207 Zeit s < 10-9 10 bis 10-7 10-7 bis 5·10-4 5·10-4 bis 0,1 -9
0,1 bis 3·104 > 3·104
Wellenlänge 180 nm bis 315 nm bis 1400 nm bis 315 nm 1400 nm 106 nm Modengekoppelte Impulslaser (M) Riesenimpulslaser (R) Impulslaser (I) Dauerstrichlaser (D)
In Abb. 12.8 ist der Rechengang zur Bestimmung der Schutzstufe von Laserschutzfiltern schematisch dargestellt.
Abb. 12.8. Schematische Darstellung des Rechengangs zur Bestimmung der Schutzstufe von Laserschutzfiltern
496
12 Augenschutz und Augensicherheit
Laserjustierbrillen nach DIN EN 208 dienen der Justierung von Strahlengängen mit sichtbarer Laserstrahlung (400 nm bis 700 nm). Damit der Benutzer einen visuellen Eindruck der Strahlung erhalten kann, soll ein gewisser Anteil der Laserstrahlung noch auf das Augen fallen können. Dies darf jedoch nie so viel sein, dass die Gefahr eines bleibenden Schadens besteht. Dies heißt, zum Laserschutz werden auch noch aktive Abwehrreaktionen, beispielsweise der Lidschlussreflex betrachtet. Demnach beträgt die maximal zulässige Belastung des Auges mit Laserstrahlung kleiner als 1 mW bei Dauerstrichlasern bzw. kleiner 2·10-7 J bei Pulslasern. Von Seiten der Berufsgenossenschaft wurde eine Informationsschrift zur Auswahl und Benutzung von Laser-Schutzbrillen und LaserJustrierbrillen verfasst, welche neben den Normen zur Klassifizierung von Laseranlagen und der Prüfnorm zu Laserschutzbrillen (DIN EN 207) und Laserjustierbrillen (DIN EN 208) unbedingt herangezogen werden sollte.
12.4 Das Regelwerk - Konformität und Normung im Augenschutz Heute, im Jahre 2005, ist das aktuell anzuwendende Regelwerk zum Schutz vor optischer Strahlung immer noch durch Veränderungen und Umbrüche gekennzeichnet. Die bisherigen Regelungen werden derzeit überarbeitet. Noch ist aber nicht vollständig abzusehen, welche Vorschriften kommen und welchen Inhalt bzw. Bedeutung im täglichen Nutzen diese Änderungen haben werden (Siekmann, Regelungen zum Schutz vor optischer Strahlung, 2004). 12.4.1 Gesetzesgrundlage Richtlinie und GPSG Das Arbeitsschutzgesetz schreibt dem Arbeitgeber und Unternehmer vor, dass er alle „erforderlichen Maßnahmen des Arbeitsschutzes unter Berücksichtigung der Umstände zu treffen hat, welche die Sicherheit und die Gesundheit der Beschäftigten bei der Arbeit beeinflussen“ (Art.3 Arbeitsschutzgesetz ArbSchG). Dies bedeutet, dass der Arbeitgeber und Unternehmer eine Risiko- und Gefährdungsanalyse durchzuführen hat und die Arbeit entsprechend des Stands der Technik durch bauliche und organisatorische Maßnahmen so zu gestalten hat, dass durch die Arbeitsverrichtung Leben und Gesundheit seiner Arbeitnehmer nicht gefährdet sind. „Die Beschäftigten sind verpflichtet, nach ihren Möglichkeiten sowie gemäß der Unterweisung und Weisung des Arbeitsgebers (oder eines Bevollmächtigten) für ihre Sicherheit und Gesundheit bei der Arbeit Sorge zu tragen“ (Art. 15 ArbSchG). Dieser Grundsatz gilt für den Beschäftigten selbst wie
12.4 Das Regelwerk - Konformität und Normung im Augenschutz
497
auch für die Kollegen, von denen niemand durch fehlerhafte und oder fahrlässige Handlungen beeinträchtigt werden sollte. Übertragen auf den Augenschutz bedeutet dies: Ist es dem Arbeitgeber nicht möglich, durch organisatorische oder bauliche Maßnahmen die Augensicherheit seiner Beschäftigten sicherzustellen, so muss er geeignete persönliche Schutzausrüstungen, bereitstellen. Der Arbeitnehmer hingegen ist verpflichtet, diese bereitgestellte persönliche Schutzausrüstung bei seiner Tätigkeit auch zu benutzen. Für den Augenschutz bedeutet dies, dass alle Personen, die sich in einem für die Augen betreffenden Gefahrenbereich aufhalten, eine Schutzbrille tragen müssen. Was im beruflichen Umfeld gilt, sollte im privaten Umfeld umso mehr anzuwenden sein – denn die meisten Augenunfälle passieren immer noch, weil keine Schutzbrille getragen wird. PSA-Richtlinie Vor gut 10 Jahren hat man im Europäischen Wirtschaftsraum ein einheitliches Regelwerk für persönliche Schutzausrüstung geschaffen. So unterliegen heute Augenschutzprodukte im beruflichen Einsatz der EU-Richtlinie 89/686/EWG (PSA-Richtlinie: Richtlinie des Rates vom 21. Dezember 1989 zur Angleichung der Mitgliedsstaaten für persönliche Schutzausrüstung). Wie alle Europäischen Richtlinien so wurde auch die PSARichtlinie in nationales Recht überführt, in Deutschland in die 8. Verordnung zum Geräte- und Produkte-Sicherheitsgesetz; Verordnung über das Inverkehrbringen von persönlicher Schutzausrüstung – 8.GPSGV. Die PSA-Richtlinie unterscheidet zwischen drei Kategorien: x Zur Kategorie I gehören ausschließlich PSA, bei denen der Nutzer selbst eine Gefährdungsanalyse durchführen kann, beispielsweise Gartenhandschuhe, Handschuhe gegen schwach aggressive Reinigungsmittel u.ä. - aber auch Sonnenbrillen für den privaten Gebrauch. x Zur Kategorie III gehören die komplexen Schutzausrüstungen. Hier besteht die Gefahr, dass der Nutzer einen ernsten, meist irreversiblen Gesundheitsschaden erleidet oder sich einer tödlichen Gefahr aussetzt, wenn die Schutzausrüstung versagt. Dazu zählen dann alle Atemschutzgeräte, Tauchgeräte, Filter zum Schutz gegen toxische Aerosole oder radiotoxische Gase, Schutz gegen ionisierende Strahlung. Aber auch Augenschutzgeräte, die für den Einsatz bei hohen Temperaturen mit extrem intensiver IR-Strahlung konzipiert sind, bei denen das Risiko von Flammen, elektrischen Überschlägen, Störlichtbögen oder Schmelzmaterialspritzern besteht. Hochofenarbeiter sollten also grundsätzlich nur Augenschutzgeräte der Kategorie III benutzen.
498
12 Augenschutz und Augensicherheit
x Zur Kategorie II gehören alle übrigen persönlichen Schutzausrüstungen. Pauschal kann man festhalten, dass jegliche persönliche Schutzausrüstung, so auch jedes Augenschutzgerät, welches für berufliche Zwecke eingesetzt wird, mindestens der Kategorie II zuzuordnen ist – und damit einer Prüfpflicht unterliegt. Die PSA-Richtlinie fordert nur, dass Augenschutzgeräte den Sicherheitsanforderungen genügen müssen. Sie macht jedoch keine Aussage, welche der Anforderungen für eine Prüfung zugrunde zu legen sind. Vielmehr bestimmt die PSA-Richtlinie, dass soweit verfügbar europaweit harmonisierte Normen anzuwenden sind. Auch wenn den Normen und Standards niemals eine gesetzesgleiche Rolle zukommen darf; schließlich werden Normen von interessierten Kreisen der Industrie erlassen, so erhalten sie durch diese Bestimmung einen gesetzesähnlichen Charakter. Damit soll auch sichergestellt sein, dass die akkreditierten Prüflabors vergleichbare Messungen durchführen. Davon getrennt ist das Bewertung- und Zertifizierungsverfahren zu sehen, welches eine EU-benannte Stelle durchführt. Diese bestätigt dann, dass die EG-Baumuster-Typprüfung durchgeführt wurde und der Hersteller bzw. der Vertreiber berechtigt ist, das CE-Zeichen zu verwenden und das betreffende Augenschutzgerät in Europa zu vermarkten. 12.4.2 CE-Zeichen Erfüllt ein Produkt erfolgreich die Mindestanforderungen, also hat es die in Normen festgelegten Merkmale. Dann gilt die Konformitätsvermutung: Erfüllt ein Augenschutzprodukt die in einer Norm festgelegten Merkmale, so erfüllt es auch die in der Richtlinie geforderten Mindestanforderungen. Danach darf der Hersteller bzw. der Importeur sein Produkt mit dem CEZeichen versehen (Abb. 12.9). Dieses spezielle Produkt ist in allen Staaten der Europäischen Union und in den meisten assoziierten Staaten (bspw. der Schweiz) frei handelbar. Es handelt sich also hierbei um eine einmalig durchzuführende EG-Baumuster-Typprüfung. Dass ein spezielles Produkt technisch unverändert vertrieben und gehandelt wird, erklärt ein Hersteller durch eine sogenannte Konformitätserklärung (Declaration of Conformity). Das CE-Zeichen ist also allein ein Konformitäts- und ein Freihandelszeichen; es ist nicht mit einem Qualitätszeichen zu verwechseln.
Abb. 12.9. CE-Zeichen
12.4 Das Regelwerk - Konformität und Normung im Augenschutz
499
12.4.3 GS-Zeichen / DIN-Qualitätszeichen Neben der CE-Kennzeichnung sieht das GPSG vor, dass zusätzlich das GS-Zeichen (Geprüfte Sicherheit) für ein Augenschutzgerät vergeben werden kann. Produkte, welche das GS-Zeichen führen, unterliegen einer regelmäßig durchzuführenden Überwachung. Oftmals ist an das GS-Zeichen auch an eines der DIN-Konformitätsund/oder Qualitätszeichen gekoppelt (Abb. 12.10). Hier werden die Proben, welche zur Erst-Zulassungsprüfung wie auch zur Wiederholungsprüfung benötigt werden, beim Hersteller aus dem Lager entnommen. Auch wird geprüft, ob der Hersteller über geeignete Mess- und Prüfgeräte verfügt bzw. darauf Zugriff hat, damit er gewährleisten kann, dass gleichbleibend hohe Qualitätsstandards erfüllt werden, Auch wenn diese Produktzertifizierung nur am Rande mit einer Prozesszertifizierung im Qualitätswesen zu vergleichen ist, so ist eine Prüfung und Bewertung nach der ISO 9000-Familie sehr hilfreich.
Abb. 12.10. DIN- und GS-Zeichen
Die Erstzulassung nach dem GS/DIN-Zertifizierungsprogramm und die Kennzeichnungsberechtigung gilt zunächst für ein Jahr. Danach erfolgt eine neue Probenahme und Typprüfung. Werden keine Abweichungen zum ersten Vorgang festgestellt, erhält der Hersteller die Kennzeichnungsberechtigung für weitere vier Jahre. In der Zwischenzeit muss der Hersteller durch Eigenüberwachung die wesentlichen Anforderungen sicherstellen. Das gesamte Ablaufschema, auch die Ereignisse, die zum Entzug der Kennzeichnungsberechtigung führen können und müssen, sind dort mit aufgeführt. Diese GS/DIN-Konformitäts- und Qualitätszeichen sind wesentlich höher einzuschätzen als das CE-Zeichen, da letzteres nur aufgrund einer einmaligen Typprüfung vergeben wird. Prüf- und Zertifizierungsstelle für das DIN/GS-Zeichen ist in Deutschland die Firma DIN CERTCO GmbH in Aalen. Abbildung 12.11 zeigt in einer Übersicht die Prüfungs- , Bewertungs- und Zertifizierungsstufen.
500
12 Augenschutz und Augensicherheit
Abb. 12.11. Ablaufschema einer GS/DIN-Zertifizierung von Augenschutzgeräten beim DIN CERTCO Prüf- und Zertifizierungszentrum in Aalen
12.5 Normung Augenschutz 12.5.1 Europäisch harmonisierte Normen In den vergangenen Jahren hat man alle Normen und Standards, die im Augenschutz relevant sind, als Europäisch harmonisierte Normen überar-
12.5 Normung Augenschutz
501
beitet und neu verabschiedet. Grundlegende Norm ist heute die DIN EN 166: Anforderungen von Augenschutzgeräten. Die DIN EN 167 beschreibt die optischen Prüfverfahren und die DIN EN 168 regelt die nicht-optischen Prüfverfahren. Die Normen DIN EN 169 bis DIN EN 175 fassen dann die Forderungen zusammen, die an die Filter zu stellen sind. Wie bereits erwähnt, werden Normen von den interessierten Kreisen verfasst und verabschiedet. Normen sind leichter auf dem aktuellen Stand zu halten als Rechtsvorschriften und damit sind technologische Neuerungen leichter in Regulierungsanforderungen zu berücksichtigen. Dies heißt aber auch, dass die Prüfverfahren modifiziert werden können, wenn das neu konzipierte Verfahren dem älteren überlegen ist, einfach weil es dem aktuellen Stand der Technik entspricht. Schwieriger wird die Aufgabe, wenn ein Augenschutzgerät untersucht, bewertet und zertifiziert werden soll, zu dem noch keine Norm vorliegt. Hier liegt es in der Verantwortung des Bewerters und Zertifizierers, ob der betreffende Augenschutz den grundlegenden Anforderungen genügt und zugelassen wird. 12.5.2 BGI Informationen und Regeln Neben den Richtlinien und Gesetzen einerseits und den Normen andererseits regeln die Unfallverhütungsvorschriften der Berufsgenossenschaften, deren Informationsschriften und Regeln den praktischen Einsatz von Augenschutzgeräten. Während erstere die grundlegenden Anforderungen festlegen, umfasst die zweite Gruppe die Anforderungen an Augenschutzgeräte aus Sicht der interessierten Kreise, welches Hersteller und Anwender umfasst. Die Berufsgenossenschaften geben Anwendungskriterien und –empfehlungen an die Arbeitgeber und –nehmer heraus, welche einzuhalten sind. Auch diese Schriften sind einem ständigen Wandel unterworfen. So hat beispielsweise das Fehlen von allgemein verbindlichen Vorschriften und Grenzwerte zum Schutz vor optischer Strahlung im Jahre 2003 zur Unfallverhütungsvorschrift BGV B9: „Künstliche optische Strahlung“ geführt. Diese ist zur Zeit jedoch nicht verfügbar bzw. außer Kraft gesetzt, da von der EU-Kommission eine Richtlinie zum Schutz vor optischer Strahlung ausgearbeitet wird. Zu erwarten ist hier, dass die EU-Kommission den Empfehlungen der ICNIRP folgen wird. Es muss also damit gerechnet werden, dass sich die Grenzwerte und die Expositionswerte ändern werden. Insgesamt verlangen die Berufsgenossenschaften, dass Schutzbrillen bereitzustellen und zu tragen sind, wenn ein Gefahrenpotenzial für Augenschutz besteht (Abb. 12.12).
502
12 Augenschutz und Augensicherheit
Abb. 12.12. Hinweissymbol / Gebotszeichen für das Tragen von Augenschutz
12.5.3 Kennzeichnung von Augenschutzgeräten Der Nutzer muss am Augenschutzgerät unmittelbar erkennen können, welchen Schutz die Brille, die Sichtscheibe oder der Tragkörper bieten. Die grundlegenden Spezifikationen sind also vom Hersteller am Tragkörper und auf der Sichtscheibe anzubringen. Im folgenden sind die technischen Daten in der Reihenfolge erläutert, so wie sie am Augenschutzgerät anzubringen sind. 12.5.4 Kennzeichnung von Sichtscheiben und Filterscheiben Sichtscheiben und Filterscheiben müssen Hinweise und technische Informationen beinhalten und sind nach Tabelle 12.2 wie folgt zu kennzeichnen: Tabelle 12.2. Kennzeichnung von Schichtscheiben und Filterscheiben
12.5.5 Schutzstufen Die Transmission einer Filterscheibe in einem bestimmten Wellenlängenbereich wird durch die Schutzstufe wiedergegeben. Die Schutzstufe besteht aus einer Vorzahl (Tabelle 12.3) und, durch einen Bindestrich getrennt, der Schutzstufennummer. Dabei gilt, je höher die Schutzstufennummer, desto
12.5 Normung Augenschutz
503
geringer die Transmission für optische Strahlung, desto höher ist die Schutzfunktion. Tabelle 12.3 listet die Vorzahlen auf und verweist auf die entsprechenden Normen, in der die Grenzwerte zu finden sind. Tabelle 12.3. Vorzahlen bei Schutzfiltern Filtertyp Schweißerschutzfilter UV-Filter IR-Schutzfilter Sonnenschutzfilter
Vorzahl Ohne Vorzahl Vorzahl 2 Vorzahl 4 Vorzahl 5 wenn keine erhöhten Eigenschaften an IR-Filter Vorzahl 6, wenn erhöhte Eigenschaft an IR-Filterfunktion
12.5.6 Optische Klasse Es ist wichtig, dass der Nutzer eines Augenschutzgeräts die Bearbeitungsszene verzerrungsfrei erkennen kann. Sollte die Sichtscheibe eine sphärische, astigmatische und/oder prismatische Wirkung besitzen, muss sich das Auge auf die Szene akkomodieren. Dies führt zwangläufig zu Ermüdungen. Demzufolge werden die Sichtscheiben in drei Klassen eingeteilt (Tabelle 12.4). Tabelle 12.4. Optische Klassen Optische Klasse 1 2 3
Bedeutung Für Arbeiten mit hohen Anforderungen an die Sehleistung; für den Dauereinsatz geeignet. Für Arbeiten mit durchschnittlichen Anforderungen an die Sehleistung; für den Dauereinsatz bedingt geeignet. Nur in Ausnahmefällen zu verwenden, ohne größere Anforderungen an die Sehleistung; nicht für einen lang andauerenden Gebrauch geeignet.
Einzig bei Vorsatzscheiben wird keine optische Klasse angegeben. Diese müssen immer die Anforderungen an die optische Klasse 1 erfüllen. 12.5.7 Mechanische Festigkeit Tabelle 12.5 zeigt die verschiedenen Kurzzeichen für die mechanische Festigkeit von Sichtscheiben. Dazu werden die Sichtscheiben in der Regel im Tragkörper geprüft. Sichtscheiben und Tragkörper sollten also die glei-
504
12 Augenschutz und Augensicherheit
che mechanische Festigkeit aufweisen. In der dritten Spalte sind die Formen von Augenschutzgeräten aufgeführt, für die diese mechanische Festigkeit gelten kann. Schutzbrillen ohne Seitenschutz sollten nicht gegen Stoß mit Energie (F) getestet worden sein. Tabelle 12.5. Mechanische Festigkeiten Zeichen Testverfahren ohne S
F B A
Mindestfestigkeit, statischer Verformungstest Erhöhte mechanische Festigkeit, Prüfung 44 g Stahlkugel mit 5,1 m/s oder 135 cm Fallhöhe, Prüfung bei –5°C und +55°C Stoß mit niedriger Energie, Prüfung mit 0,88 g Stahlkugel bei 45 m/s Stoß mit mittlerer Energie, Prüfung mit 0,88 g Stahlkugel mit 120 m/s Stoß mit hoher Energie, Prüfung mit 0,88 g Stahlkugel mit 190 m/s
Arten von Augenschutzgeräten alle Sichtscheiben alle Sicherheitssichtscheiben Sichtscheiben mit Seitenschutz Sichtscheiben, Korbbrillen nur Visiere
Eine Erweiterung von F, B oder A mit T sagt aus, dass geprüft wurde, dass die betreffenden Augenschutzgeräte sowohl bei Raumtemperatur (20°C bis 23°C) als auch bei erhöhter (+55°C) und niedriger Temperatur (-5°C) diese Schutzfunktion gewährleisten können. 12.5.8 Andere Anforderungen Sichtscheiben, welche eine Prüfung auf Nichthaften von Schmelzmetall bestehen, werden mit der Ziffer 9 gekennzeichnet. Das Kennzeichen K sagt aus, dass die Oberfläche der Sichtscheiben speziell behandelt oder beschichtet wurden, um eine Beständigkeit gegen eine Beschädigung mit kleinen Teilchen auszuschließen. Sichtscheiben, die oberflächenbehandelt oder –beschichtet sind, um einen beschlaghemmenden Effekt zu erzielen, sind mit dem Zeichen N versehen. 12.5.9 Kennzeichnung von Tragkörpern Neben den Sichtscheiben müssen auch die Tragkörper gekennzeichnet sein. Diese Forderung rührt einfach daher, weil man unterschiedliche Sichtscheiben in den gleichen Tragkörper einsetzen kann. Tabelle 12.6 fasst die wesentlichen Informationen der Tragkörperkennzeichnung zusammen.
12.5 Normung Augenschutz
505
Tabelle 12.6. Kurzzeichen und Verwendungsbereiche für die Kennzeichnung von Tragkörpern Kurzzeichen Bezeichnung Keines
3
4 5 8
9
Erläuterung zum Verwendungsbereich Grundverwendung, nicht näher festgelegte mechanische Risiken und Schutz gegen Strahlung ist nicht spezifiziert, nur einfache Anwendungen Flüssigkeitsspritzer Nur rundum geschlossene Korbbrillen, wo und Flüssigkeitsdas Eindringen von Flüssigkeiten unterbuntropfen den / zumindest gehemmt ist Grobstaub Staub mit einer Partikelgröße von >5 µm Gase und Gase, Dämpfe und Nebel, Rauch mit einer Feinstaub Partkelgröße <5 µm Störlichtbögen Schutz gegen elektrische Lichtbögen bei Kurzschluss in elektrischen Anlagen, Kategorie III Produkt, UV-Schutz (Kennzeichnung der Sichtscheibe mit 2-1,2) muss ebenso gegeben sein Schmelzmetall und Schutz gegen Metallspritzer und Durchdrinheiße Festkörper gen heißer Festkörper
Zusätzliche Prüfungen Zusätzliche Prüfungen, welche immer durchgeführt werden, und die sich nicht in einer Kennzeichnung wiederfinden lassen, sind: x Test gegen heißes Durchdringen: Schutzhelme müssen bspw. dem Durchdringen eines Stabes bei 650°C für mindestens 5 s standhalten. x UV-Beständigkeit: Sichtscheiben dürfen ihre optische Eigenschaften als folge intensiver UV-Bestrahlung nicht zu stark verändern. x Korrosion: Sind Tragkörper mit metallischen Teilen versehen, so dürfen diese im Gebrauch nicht korrodieren. Kennzeichnung von automatischen Schweißerschutzfiltern Tabelle 12.7 erläutert die Kennzeichnung von automatischen Schweißerschutzfiltern. Hier wird nur der Normalfall wiedergegeben. Besondere Filter mit umschaltbaren Dunkelstufenbereich und solche mit automatischer Schutzstufeneinstellung werden gesondert gekennzeichnet.
506
12 Augenschutz und Augensicherheit Tabelle 12.7. Kennzeichnung automatischer Schweißerschutzfilter 4/9-13
X
1/2/3/3
S
Schutzstufen Hell / Dunkelbereiche Herstellerkürzel Filtereigenschaften: optische Klasse, Streulicht, Homogenität, Winkelabhängigkeit (optional) Kennzeichen für mechanische Festigkeit (falls zutreffend), hier: Grad S, Erhöhte Festigkeit nach DIN EN 166
Kennzeichnung von Laserschutz- und Laserjustierfiltern Tabelle 12.8 erläutert die Kennzeichnung eines Laserschutzfilters nach DIN EN 207. Tabelle 12.8. Kennzeichnung von Laserschutzfiltern 1064
DI
L7
X
S
Laserwellenlänge oder Laserwellenlängenbereich Eine / mehrere Laserbetriebsarten (Kennbuchstaben siehe Tabelle 12.1) Schutzstufe des Filters Kennbuchstabe(n) des Herstellers Kennzeichen für mechanische Festigkeit (falls zutreffend), hier: Grad S, Erhöhte Festigkeit nach DIN EN 166
Die Kennzeichnung kann sehr ausgedehnt werden, wenn ein Filter oder ein Tragkörper gegen mehrere Wellenlängen schützt. In diesen Fällen kann die Kennzeichnung folgendermaßen zusammengefasst werden:
12.5 Normung Augenschutz
x x x x
507
633 D L4 + IR L5 1064 DI L8 + R L9 10600 D L3 + IR L4 XS
Dabei haben die Symbole die gleiche Bedeutung wie im vorhergehenden Beispiel. Tabelle 12.9 zeigt ein Beispiel für die Kennzeichnung von LaserJustierbrillen nach DIN EN 208. Erfüllt der Augenschutz eine erhöhte Anforderung bezüglich mechanischer Festigkeit, so kann dies ebenfalls gekennzeichnet werden. Der Tragkörper muss das Wort „Justierbrille“ tragen, die Kennzeichnung der Laser-Justierbrille selbst kann auf den Sichtscheiben oder dem Tragkörper angebracht sein. Tabelle 12.9. Kennzeichnung von Laser-Justierbrillen nach DIN EN 208 1W Maximale Leistung Laserleistung Maximale Energie Impulsenergie Laserwellenlänge oder LaserwellenlängenBereich Schutzstufe des Filters Kennbuchstabe(n) des Herstellers Zertifizierzeichen der Prüfstelle Kennzeichen für mechanische Festigkeit (falls zutreffend)
2·10-4 J 515
R3
X
CE
S
508
12 Augenschutz und Augensicherheit
12.5.10 Kennzeichnung von vollständigen Augenschutzgeräten Bestehen Sichtscheiben und Tragkörper aus einer untrennbaren Einheit, so ist die vollständige Kennzeichnung der Sichtscheiben und die des Tragkörpers, getrennt durch einen Bindestrich, auf dem Tragkörper anzubringen. Das Augenschutzgerät bietet nur dann für einen gegebenen Anwendungsfall den geeigneten Schutz, wenn sich die geeigneten Sichtscheiben in einem geeigneten Tragkörper befinden. Zu ergänzen ist die Kennzeichnung durch das CE-Zeichen. Ergänzt werden kann die Kennzeichnung durch weitere Qualitätskennzeichen, wie beispielsweise das DINgeprüft oder das GS-Zeichen. 12.5.11 Benutzung von Augenschutzgeräten Ein Hersteller bzw. ein Vertreiber hat dem Augenschutzgerät eine Informationsbroschüre beizufügen, aus der folgende Informationen hervorgehen müssen (vollständige Infobroschüre siehe DIN EN 166). x Name und Anschrift des Herstellers. x Nummer der für eine Prüfung zugrunde liegenden Norm in der Fassung vom... x Modellbezeichnung des Augenschutzgeräts. x Anweisungen beispielsweise für die Lagerung, Reinigung, Desinfektion oder Pflege. x Bedeutung der Kennzeichnung von Sichtscheiben und Tragkörpern. x Nummer, Name und Adresse der mit der Zertifizierung beauftragten Stelle.
12.6 Literatur Augen- und Gesichtsschutz, Hrsg. Steinbruchs-Berufsgenossenschaft, Langenhagen, www.stbg.de BGFE Berufsgenossenschaft der Feinmechanik und Elektrotechnik BGInformation 5006: Expositionsgrenzwerte für künstliche optische Strahlung, Köln BGI (2005): Auswahl und Benutzung von Laser-Schutzbrillen und LaserJustierbrillen. BG-Information Hrsg. Berufsgenossenschaft der Feinmechanik und Elektrotechnik(Entwurf Mai 2005) BGR 192 (2001) Benutzung von Augen- und Gesichtsschutz. Berufsgenossenschaftliche Regeln für Sicherheit und Gesundheit bei der Arbeit, Hrsg. Berufsgenossenschaft der Feinmechanik und Elektrotechnik, Juli 2001
12.6 Literatur
509
CIE Internationale Beleuchtungskommision (1987) Internationales Wörterbuch der Lichttechnik. Hrsg. Bureau Central de la Commission Electrotechnique Internationale DIN EN 12254 Abschirmungen an Laserarbeitsplätzen – Sicherheitstechnische Anforderungen und Prüfung DIN EN 14255 (2004) Messung und Beurteilung von personenbezogenen Expositionen gegenüber inkohärenter optischer Strahlung - Teil 1: Von künstlichen Quellen am Arbeitsplatz emittierte ultraviolette Strahlung - Teil 2: Emission von sichtbarer und Infrarot-Strahlung durch künstliche Quellen am Arbeitsplatz DIN EN 1598 Schweißerschutzvorhänge DIN EN 166 Persönlicher Augenschutz; Anforderungen DIN EN 167 Persönlicher Augenschutz; Optische Prüfverfahren DIN EN 168 Persönlicher Augenschutz; Nichtoptische Prüfverfahren DIN EN 169 Persönlicher Augenschutz; Filter für das Schweißen und verwandte Techniken; Transmissionsanforderungen und empfohlene Verwendung DIN EN 170 Persönlicher Augenschutz; Ultraviolettschutzfilter Transmissionsanforderungen und empfohlene Verwendung DIN EN 171 Persönlicher Augenschutz; Infrarotschutzfilter; Transmissionsanforderungen und empfohlene Verwendung DIN EN 172 Persönlicher Augenschutz; Sonnenschutzfilter für den gewerblichen Gebrauch DIN EN 207 (2002) Persönlicher Augenschutz; Filter und Augenschutz gegen Laserstrahlung (Laserschutzbrillen) DIN EN 208 Persönlicher Augenschutz; Augenschutzgeräte für Justierarbeiten an Lasern und Laseraufbauten (Laser-Justierbrillen) DIN EN 379 (2003) Persönlicher Augenschutz - Automatische Schweißerschutzfilter DIN EN 1731 Augen- und Gesichtsschutzgeräte aus Draht- oder Kunststoffgewebe für den gewerblichen und nichtgewerblichen Gebrauch zum Schutz gegen mechanische Gefährdung und/oder Hitze, DIN EN 175 Persönlicher Augenschutz; Geräte für Augen- und Gesichtsschutz beim Schweißen und bei verwandten Verfahren DIN EN 1836 Persönlicher Augenschutz; Sonnenbrillen und –schutzfilter für den allgemeinen Gebrauch DIN EN 1938 Persönlicher Augenschutz, Schutzbrillen für Motorrad- und Mopedfahrer DIN EN 60825-1 (2001), (VDE 0837) Sicherheit von Lasereinrichtungen, Teil 1: Klassifizierung von Anlagen; Anforderungen und Benutzer-Richtlinien. Beuth Verlag, Berlin ICNIRP Guidelines (1996) Guidelines on Limits of Exposure to Laser Radiation of Wavelengths between 400 nm and 1.000 nm. Health Physics 71, 5, (1996), 804-819 ICNIRP Guidelines (1997) Guidelines on Limits of Exposure to Broad-Band Incoherent Optical Radiation (0.28 to 3 µm). Health Physics 73, 3, (1997), 539554
510
12 Augenschutz und Augensicherheit
ICNIRP Guidelines (2000) Revision of Guidelines on Limits of Exposure to Laser Radiation of Wavelengths between 400 nm and 1.400 nm. Health Physics 79, 4, (2000), 431-440 ICNIRP Guidelines (2004) Guidelines on Limits of Exposure to Ultraviolet Radiation of Wavelengths between 180 nm and 400 nm (Incoherent Optical Radiation). Health Physics 87, 2, (2004), 171-186 Schweißerschutz Hitzler 4 Schweißerschutz Hitzler 9 Schweißerschutz Hitzler 11 Siekmann H (2002) Gefährdung er Augen durch optische Strahlung. Information des Berufsgenossenschaftlichen Instituts für Arbeitsmedizin BIA, St. Augustin, Ausgabe 7/2002 Siekmann H (2004) Regelungen zum Schutz vor optischer Strahlung – der Stand im Jahre 2004, Fortschritte im Strahlenschutz. 36. Jahrestagung des Fachverbandes für Strahlenschutz, Köln 2004, Tagungsband 70-90 Stephen Palmer S (1998) The optical properties of Automatically Darkening Filters based on Liquid Crystal Technology. PhD Thesis, Univ. Uppsala Sweden Sutter E (2002) Schutz vor optischer Strahlung, Laserstrahlung, inkohärente Strahlung; Sonnenstrahlung, Normenreihe 60825 (VDE 0837), VDE Schriftenreihe Normen verständlich. VDE-Verlag GmbH, Berlin Offenbach, ISBN 3-80072667-X (2002)
Index
1 1-D-Sensoren 216
2 2-D-Sensoren 218
3 3DP 315 3-D-Sensoren 219
A Abbe-König 415 Abbe-Zahl 6 Abbildung 106 Abbildungsgleichung 4, 11 Abbildungsmaßstab 11 Abformen 116, 123 Abformkörper 107, 116 Abformtechniken 414 Ablation 394, 396 Abscheiden organmetallischer Lösungen 127 absolute Systeme 236 Absorbanz 368 absorbierte Laserstrahl-Leistung 296 Absorption 91, 345 Absorptionsbanden 260 Absorptionskoeffizient 92, 363 Absorptionsmessung 224 Absorptionsspektroskopie 362, 363 Abstrahlrichtung 334
Abtastgeschwindigkeit 201 Abtastradius 201 Abtragen 298, 310 AFM 123 Airy-Einheit 381 Airy-Scheibchen 383 akustooptische Modulatoren 273 Akzeptanzwinkel 8, 131 All-in-One Geräte 412 Ampel 333 analoge Projektoren 417 Angepasste Optik 270 Angepasste Referenzspiegel 269 angeregte Zustände 363 Anisotropiefaktor 372 Anleuchten 319 Anregungsenergie 363 Anregungswellenlängen 365 ANSI-Lumen 419 Antireflexbeschichtung 439 Antireflexschicht 124 Antireflexschichten 128 APD 101 Arbeitsplatzleuchte 322 Atomic Force Microscope 123 Auflichtbeleuchtung 379 Auflichtmikroskopie 375 Auflösung 276, 376 Auflösung eines Sensors 425 Aufweitungsoptik 334 Augendiagramm 154 Augenheilkunde 398 Augenschutz 479 Augensicherheit 479 Ausbleichen 310
512
Index
Auskoppelstruktur 338 Ausleuchtung 322 Ausleuchtungsvorschriften 326 Austrittspupille 416 Auswahlprüfung 266 autogenen Brennschneiden 296 Autokollimationsprinzip 190 Automatisierungstechnik 178
B Bandpass 106 Barcode-Scanner 204 Beamer 418 Bedampfen 125 Beleuchtetes Bedienelement 336 Beleuchtung 106, 318 Beleuchtungsoptik 418 Beleuchtungsstärke 60, 420 Beleuchtungsstärke E 318 Beleuchtungssystem 320, 322 Beleuchtungstechnik 317, 340 Beschichten 305 beschichtete Filter 330 Beschichtung 107, 123 Beschichtungsverfahren 105 Beschriften 309 Besetzungsinversion 66, 78 Bestrahlungsstärke 58 Beugung am Gitter 50 Beugung am Spalt 46 Beugung an der Lochblende 48 Beugungsmaßzahl 289 Bidirectional scatter distribution function 346 Biegeprozesse 294 Bildaufnahme 405 Bildbündel 390 Bilddokumentation 386 Bildsensor 423 Bildverarbeitung 448 Bildvergrößerung 405 Bildwiedergabe 405, 417
Bio- und Chemielumineszenz 362 Biolumineszenz 370 Blankpressen 117 Blaze-Winkel 52 Blendung 323 Blooming 440 Blutfluss 375 Bohren 298 Boltzmann-Faktor 64 Bragg-Bedingung 89 Bragg-Wellenlänge 251 Brechkraft 10 Brechungsgesetz 5 Brechungsindex 4 Brechungsmatrix 18 Brechzahl 4 Brechzahlprofil 132 breitbandiger Laser 251 Brewster-Winkel 33 Brille 106 Brillen 421 Bronchoskope 393 BSDF 346
C Candela 60, 319 CCD-Bildsensoren 235 CCD-Diodenzeilen 235 CCD-Sensor 390, 427 CCD-Zeile 192 CCOS 113 CCP 112 CD 106 Charge-Coupled Device 427 Chemilumineszenz 370 chromatische Dispersion 144 CIS 411 CO2-Laser 303 Codespezifikationen der AIM 205 Compact Image Sensor 411 Computer Controlled Optical Surfacing 113
Index Computer Controlled Polishing 112 computergesteuerte Politur 112 Cystoskope 393
D Dämmerungszahl 416 Dämpfungskoeffizient 134 DBR-Laser 88 Dekorative Schichten 128 Dermatologie 400 Design 107 Desoxyhämoglobin 363 destruktive Interferenz 124 Detektivität 100 DFB-Laser 88 Diagnostik 361 Diamantdrehen 108 Diamantlösung 112 Diaprojektor 417 Dichroismus 34 dichroitische Spiegel 262 differenzielles faseroptisches Vibrometer 255 diffraktiv optisches Element 417 diffraktive Elemente 120 Diffraktive Optik 121 Diffusionslöten 304 Digital Light Processing Technologie 419 digitale Projektoren 418 Diodenlaser 286 Dioptrie 10 Dipol-Dipol-Wechselwirkung 370 Direct Metal Deposition 305, 314 Direct Shell Production Casting 315 Direkt-Indirektbeleuchtung 323 Dispersion 6 dispersionsgeglättete Faser 145 dispersionskompensierende Faser 145 Dispersionsmechanismen 137
513
dispersionsverschobene Faser 145 Display 463 Displayhinterleuchtung 338 Displays 336 Distanzsensor 191 Distanzsensoren 196 Divergenzwinkel 288 DLP 419 DMD 305, 314 DOE 417 Doppelbrechung 34 Doppellinsen-System 179 Doppelrohrferngläser 415 Dopplereffektes 239 dpi 411 Drehzelle 466 Dreibereichsverfahren 261 DSP-Architekturen 208 DSPC 315 dünne Endoskope 393 Dünnschichtzellen 358 Durchflusszytometrie 373 Durchlicht 371 Durchlichtmikroskopie 375 durchstimmbarer Laser 251 DVD 106
E EAN-Code 204 Ebenheit 279 ECE-Testpunkte 348 Echelette-Gitter 52 Eindeutigkeitsbereich 274 Einkoppel-Optik 332 Einmodenfaser 132 Einweg-Lichtschranke 176 elastische Streuung 363, 371 elektromagnetische Strahlung 363 elektronische Bilderfassung 386 elektronische Bildstabilisierung 417 elektronischen Bildverstärkereinheiten 417
514
Index
elektronischen Restlichtverstärkereinheiten 417 Embedded-RISC-Rechner 214 Emission 363 Emissionsgrad 66 Empfangsapertur 211 Empfangsleistung 210 Empfindlichkeit 95 Endoskopie 384 Endoskopie-System 385 Endoskopische Beleuchtungseinheit 332 endoskopische Bildgebung 386 Endoskopische Bildgebung 388 Energiestromdichte 26 Energietransferspektroskopie 370 Entfernungsinformation 192 Erythrozyten 373 ESPI 249 Excimer-Laser 285, 311 Expositionsgrenzwerte 483 externer Quantenwirkungsgrad 72 Extinktionskonstante 225
F Fabry-Perot-Interferometer 44 Fabry-Perot-Laser 78 Fahrzeug-Signalleuchten 335 Faltung 462 Faraday-Effekt 35 Farbdisplays 262 Farberkennung 261 Farbfehler 416 Farbkontrolle 261 Farbmarken 262 Farbmessung 260 Farbrezeptierung 261 Farbsensor 190 Farbtemperatur 330 Farbton 190 Farbumschlag 310 Farbwiedergabe 330 Faserinterferometer 251
Faseroptische Sensorik 249 Faseroptische Vibrationssensoren 255 faseroptischer Beleuchtung 384 faseroptischer Ramaneffekt 161 Faserverstärker 160 Fax 410 FBGS 251 FDM 314 Fehlsichtigkeit 398 Feinbearbeitung 108 Feinschleifen 108 Feldwellenimpedanz 26 Femtosekundenbereich 243 Femtosekundenlaser 399 Fermat´sches Prinzip 3 Fernfeld 319 Ferngläser 415 Fernrohrleistung 416 Fertigungsverfahren 290 Festkörperlaser 285 Feuchtemessung 260 Fiber-Bragg-Grating-Fasersensoren 251 Fiber-Bragg-Grating-Sensoren 249 Fiberendoskope 393 Filmprojektoren 418 Filter 106 Filterrad 419 Filze 112 Finesse 45 Fit-Funktion 347 Flachbettscanner 410 Flächenhomogenität 334 FLIM 380 Fluid Jet Polishing 115 Fluorescence Lifetime Imaging 380 Fluoreszenz 362, 363, 375 Fluoreszenzfarbstoffe 189 Fluoreszenz-Lebensdauer 380 Fluoreszenzmarkern 367 Fluoreszenzmikroskopie 379 Fluoreszenzphotons 365
Index Fluoreszenz-Resonanz-EnergieTransfer 370 Fluoreszenzspektrometers 365 Fluoreszenzspektroskopie 364 Flüssigkristall-Display 464 Flüsssigkeitslaser 287 Fokussierung 415 Formen 107, 108 Formkorrektur 113 Formmessung 239 FOS 249 fotochemische Reaktionen 396 Fotodetektoren 273 Fotodioden 93 fotodynamischen Therapie 368 Fotoeffekt 61 Fotokopierer 410 Fotoleiter 93 Fotometrische Größen 60 fotovoltaischer Effekt 351 Fotowiderstand 93 Fourier-Transformation 457 Fraunhofer-Beugung 47 Freiformflächen 322 Freiformreflektor 327 Freiraumübertragung 167 Fresnel-Kunststoff-Optik 413 Fresnellinse 334 Fresnel-Linse 418 FRET 370 F-Theta-Objektiv 202 Fügen 299 Füllfaktor 353 Fused Deposition Modeling 314
G GaAlAs-Laser 287 GaInP-Laser 287 Galilei-Prinzip 415 Galileiteleskope 417 Gangunterschied 37 Ganzflächenpolieren 111, 112
515
Gasanalysator 230 Gasentladungslichtquellen 331 Gaskonzentrationsmessung 229 Gaslaser 283 Gastroskopie 391 Gauß´sche Optik 4 Gebrauchsgüter 405 gemeinsame Schmelze 301 geometrische Abstrahlung 342 Geometrische Optik 1 Geometrisches Lichtquellenmodell 343 gerichtete Reflexion 346 geringe Blendwirkung 327 Gesamttransmissionen 417 Glanzwinkel 184 Glas abformen 117 Glätten 107 Glättungsfilter 455 Glaukom-Behandlung 311 Glaukomtherapie 398 Gleichstrom-Halogenlichtquellen 331 Gradientenfaser 9 Gravieren 310 Grenzwinkel der Totalreflexion 8 GRIN-Linse 14 Grobbearbeitung 108 Grundzustand 363 Gruppengeschwindigkeit 53 Gruppenindex 54 Güteschalter 69
H Halbleiterlaser 286 Halbleiter-Laser 77 Halogenlichtquellen 334 Härten 307 Hartmann-Shack Sensor 399 Hauptebene 12 Hauptreflektor 324 Heißprägen 117, 119
516
Index
Hell-Dunkel-Grenze 327 Heterodynfrequenz 273 Heterodyn-Technik 272 Heterostruktur 80 High-End-Geräte 420 Hinterleuchtung 338, 339 Histogrammausgleich 452 Ho: YAG-Laser 303 hoch auflösende Formmesssungen 276 Hochleistungs-Diodenlaser 303 hochpräzise Maßverkörperungen 278 Höhenauflösung 265 Höhenprofildaten 266 Hohlraumstrahler 63 Hohlspiegel 3 Holografie 54 holografische Interferometrie 245 Holografische Interferometrie 255 Hologramm 56, 255 Huygens´sches Prinzip 46
I in vitro-Diagnostik 364 in vivo-Anwendung 364 Indirekte Beleuchtung 324 inelastische Prozesse 363 Informationsträger 318, 336 Infrarotoptik 108 Infrarotspektroskopie 362 Inkjet Technology 315 Inkrementalgeber 236 Inkrementelle Systeme 236 Innenlinse 415 integrierte Digitalkamera 417 integrierten Operationssaal 387 Intensität 26 Intensitätsbilder 266 Intensitätskorrelogramm 265 Intensitätsverhältnis 190 Interferenz 36 Interferenzkontrast 375
Interferenzkontrastmikroskopie 378 Interferenzsignal 244 Interferometer 41, 236, 238 Interferometrie 123 interferometrische Messtechnik 115 Interferometrische SubmikrometerMesstechnik 263 interferometrische Verfahren 233 interferometrisches Einpunktverfahren 252 interferometrisches Tastsystem 281 intrinsische Fluorophore 366 Ion Beam Figuring 115 Ionenätzen 115 Ionen-Laser 285 IPS-Display 471 Isochromaten 248 IT 315
J Jones-Matrizen 31 Jones-Vektor 29
K Kaltlicht 386 Kamerasensoren 214 Kantenfilter 456 Kardinalpunkte 21 Kepler-Prinzip 415 Kernmaterial 331 Kinoprojektoren 420 kleine Fleckdurchmesser 289 Knotenpunkte 13 Koagulation 394 Koagulation des Gewebes 396 Kohärente Übertragungssysteme 157 Kohärenz 40, 243 Kohärenzlänge 41 Kohärenzzeit 41
Index Köhler’sche Beleuchtung 377 Köhler’scher Beleuchtung 384 Kondensorsystem 417 konfokale Mikroskopie 381 Kontrasttaster 188 Kontrastübertragungsfunktion 426 Kontrastverhältnis 469 Kontrastverhältnis SC 205 Kontrastverstärkung 377 Kontrollmarken 189 Konturschweißen 302 Korrektur 107 Kraftfahrzeug-Frontbeleuchtung 326 Kubelka-Munk Gesetz 372 Kunststoff abformen 119 Kunststoff-Schweißen 301 kurzkohärenten Lichtquelle 244
L Lambert´sche Charakteristik 337 Lambert´sches Cosinusgesetz 58 Lambert-Beer`sches Gesetz 225 Lambert-Beer-Gesetz 362 Lambert-Bouguer’sches Gesetz 92 Lambertsche Streuung 346 Laminated Object Manufacturing 315 Laparoskopie 391 Laser 66, 106 Laser pressure catapulting 383 Laser-Chirp 86 Laser-Doppler-Vibrometer 252 Laserdurchstrahlprinzip 302 Laserformen 291 lasergestützte Optoporation 383 Laser-Hybrid-Schweißen 301 Laser-Iridektomie 398 Laser-Maskenbeschriften 310 Laser-Mikrodissektion 383 Laser-Mikromanipulation 382, 383 Laser-Mikro-Manipulation 375
517
Laserpinzette 382 Laserpointer 257 Laser-Radar 209 Laser-Scan-Mikroskopie 375 Laserscanner 197 Laser-Scanning-Mikroskopie 376, 380 Laserschutzbrille 493 Laserschutzfilter 492 Laserschwelle 68 Lasersendern 200 Laser-Strahlablenkungsbeschriften 310 Laserstrahl-Brennschneiden 295 Laserstrahlquelle 200 Laserstrahlquellen 283 Laser-Trabekuloplastik 398 Lasertypen 283 LASIK-Verfahren 398 laterale Auflösung 265 Lateraleffektfotodioden 235 Lawinen-Fotodioden 101 LCD 464 LCoS 420 LED 73 LED In Direct Exposure 411 LED-Lichtquellen 331, 334 Leistungsfähige LEDs 214 Leuchtdichte 60 Leuchtdichte L 319 Leuchtdichtebild 345 Leuchtdiode 73 Leuchtdiodenarrays 412 Leuchtmittel 324 Leukozyten 373 Lichtfarbe 317 Lichtgeschwindigkeit 25 Lichtgitter 177 Lichtlaufzeitmessung 221 Lichtlaufzeit-Verfahren 209 Lichtleiter 331 Lichtleiter-Lichtschranke 186 Lichtquanten 61
518
Index
Lichtquelle 322 Lichtquellen 320, 331 Lichtquelleneinheit 324 Lichtquellenmodellierung 342 Lichtquellen-Reflektor-System 320 Lichtschranke Einweg-Lichtschranke 176 Reflexions-Lichtschranke 179 Lichtschranken 175 Lichtstärke 60 Lichtstärke I 319 Lichtstärkeverteilung 333 Lichtstrom 420 Lichtstrom ) 318 Lichttaster 175 lichttechnische Größen 318 Lichttechnische Größen 60 Lichtvorhang 177 Lichtwellenleiter 8 LIDE–Technologie 411 Life Sciences 361 Light-Engine 419 Linearpolarisationsfiltern 182 Linescanner 257 Linse 106, 322 Linsensysteme 389 Liquid Crystal Display 464 Lock-in-Thermografie 259 Lokale Polierverfahren 115 lokale Politur 111 lokales Polieren 112 LOM 315 Look-Around-Systeme 421 Löten 304 Lumen 318 Lumineszenz 363 Lumineszenzdiode 73 Lumineszenzspektroskopie 362 Lumineszenztaster 189 Luminophore 189 Lupe 413 Lux 318 Luziferin 370
M Mach-Zehnder Freistrahl-Aufbau 272 Magneto Rheological Finishing 114 Magneto-Rotation 35 Mantelmaterial 331 Markieren 309 Maske 122 Maskenschweißen 303 Maßverkörperung 236 Masterformen 118 Materialdispersion 143 Matrix-Empfangselement 222 Matrixmethode 16 Matrixsensor 216 Maxwell-Relation 25 Medizin 361 Mehrschichtsysteme 124 Mess-Interferometer 272 Metall-Schutzgasverfahren 301 MIC 384 Mie-Streuung 372 Mikroarray-Technologie 367 Mikrobearbeiten 311 Mikrointerferenzmuster 246 Mikrointerferometer 255 Mikroskop 106, 412 mininimal-invasiven Chirurgie 384 Mischstreuung 346 Modendispersion 137 Moden-Kopplung 69 Modulations-Interferometer 272 Modulations-Übertragungsfunktion 76, 85 Moirétechnik 221 molekulare Schwingungsmoden 368 Molekül-Laser 283 Molekülschwingungsspektroskopie 368 Monochromator 365
Index Monomodefaser 132 Monomodefasern 251 Monomode-Glasfasern 251 Montage 107 Monte-Carlo-Methode 340 MRF 114 MSG 301 Multimodefaser 132 Multimodefasern 249 Multiphotonenmikroskopie 382 Myopie 398
N Nachtdesign 336 Nachtgläser 416 Nahfeldfotogoniometrie 344 Nahinfrarotbereich 370 Nahinfrarotspektroskopie 370 Nd:Glas-Laser 285 Nd:YAG-Laser 285, 303 Nephelometrie 373 Nepholometrie 371 NEP-Wert 100 Netzhautablösung 398 Neutralatom-Laser 285 Newton’sche Abbildungsgleichung 11 Nicht Sequenzielle Strahlverfolgung 340 Normale 278 numerische Apertur 8, 131, 376
519
OLED 420 OLED-Display 474 Operationsleuchten 328 Operationsmikroskopie 375, 384 Optikkomponenten 107 optimaler Lastwiderstand 353 Optische Aktivität 34 optische Endoskope 266 optische Interferenz 123 optische Kohärenztomografie 371 Optische Kohärenztomographie 374 optische Komponenten 105 Optische Messtechnik 233 optische Messverfahren 115 Optische Mikroskopie 375 Optische Nachrichtenübertragung 129 Optische Pfadanalyse 349 optische Pfade 340 optische Sensoren 175 optische Signaleinrichtungen 319 optischer Überlagerungsempfang 157 optischer Weg 5 optisches Modul 419 optisches System 317 Optomechanischer Effekt 394, 396 Organic Light Emitting Diodes 474 Overheadprojektoren 418 Oxyhämoglobin 363
O
P
Oberflächenemittierende Laser 89 Oberflächenprofil 120 Oberflächenrauigkeit 108 Objektiv 106 Objektmikrometer 278 Objektstrahl 377 Öffnungswinkel 376 Offset 378 Okular 391
PACE 115 paraxiale Optik 4 Paraxialstrahlen 4 passive optische Komponenten 317 PDT 394 Peche 112 Phantomlicht 334 Phasendifferenz 195
520
Index
Phasengeschwindigkeit 24 Phasenkontrast 375 Phasenkontrastmikroskopie 377 Phasenkorrelations-Sensor 194 Phasenmodulationsverfahren 366 Phasenring 377 Phasenstruktur 378 Phosphoreszenz 362, 363 Photochemischer Effekt 394 photometrisches Strahlungsäquivalent 61 Photonen 61 Physical Vapor Deposition 125 pin-Fotodioden 96 Pixel Binning 444 Planck´sches Strahlungsgesetz 65 Plasma Assisited Chemical Etching 115 Pockels-Zelle 35 Polarisation 28 Polarisationsfilter 182 Polarisationsmodendispersion 137 Polierbeläge 112 Polieren 309 Poliermittel 112 Polierprozess 111 Polyurethan-Schäume 112 Porro 415 Positioniergenauigkeiten 238 Präsenzdetektion 175 Pressen aus der Glasstange 118 Prestongleichung 111 Projektionssystem 327 Prozesskette 107 PSD-Element 192 Pulslaufzeit-Sensor 193 Pulsoxymetrie 364 Punktewolken 241 Punktlöten 305 Pupillenstrahl 377 PVD 125 PVD-Verfahren 125 Pyrometer 257
Q Quantisierungstiefe 448 Quantum-well-Laser 79 Quasisimultanschweißen 303
R Radiometrie 56 Ramanspektroskopie 362, 369 Ramanstreuung 363 Rapid Production 315 Rapid Prototyping 313 RAPT 115 Rasterkraftmikroskopie 123 Rauheitskenngrößen 279 Rauigkeit 108 Raumwinkel 57 Raunormale 279 rauschäqivalente Leistung 100 Rauschen von Fotodioden 98 Rauschquellen 445 Rayleigh-Kriterium 49 Rayleigh-Länge 288 Rayleighstreuung 363 Rayleigh-Streuung 134 Ray-Tracing-Programme 340 Reactive Assisted Plasma Technology 115 reduzierte Streukoeffizient 372 Reflektive Drehzellen 470 Reflektor 180, 320, 334 Reflexion 106 Reflexionseigenschaften 124 Reflexionsgesetz 2 Reflexions-Lichtschranke 179 Reflexions-Lichttaster 183 Reflexionsmatrix 19 refraktiven Chirurgie 311 Reichweiten 179 Rekombination 70 Relaxationsoszillation 85 Remission 190 Remissionsfotometrie 371
Index Remissionsvermögen 183 Restreflex R 128 Reticle 122 Retro-Reflektor 179 Röntgen-Computer-Tomographie 264 Rubin-Laser 285 Rückkopplung 68 Rückstrahleffekt 334 Rundsichtoptiken 267
S scannendes Lasersystem 399 Scanner Laserscanner 197 Schaltpunkt 185 Schaltschwelle 185 Schärfentiefe 289, 376 Schärfentiefenverlust 200 Schattenwurfverfahren 239 Scheimpflugbedingung 193 Scheinwerfer 106 Schleifen 108 Schlierenbildung 119 Schmelzlöten 304 Schmidt-Pechan 415 Schmiereffekt 441 Schneiden 294 Schrotrauschen 98 Schutzgas 415 Schutzstufe 485 Schwarzer Strahler 63 Schweißen 299 Schweißerschutzfilter 490 Schweißnahtfestigkeit 303 Schwingquarze 128 Schwingungsmessung 252 See-Through-Systeme 421 segmentierte Fotodiode 192 Sehfeld 416 Sekundärreflektor 324 Sekundärreflektortechnologie 324 Selbstleuchten 319
521
Selective Laser Melting 292 selektive NIRFluoreszenzdiagnostik 402 selektive Transmission 124 selektives Laser-Schmelzen 292 selektives Laser-Sintern 291 Selektives Lasersintern 314 Sellmeier-Gleichung 7 Sendeleistung 210 Sendelichtfarben 188 Sequenzielle Strahlverfolgung 341 SGC 314 Shutter 222 Sicherheitstechnik 178 Signalisation 318, 333 Silikatbildleiter 390 Simulation 340 Simultanlöten 305 Simultanschweißen 303 SLA 314 SLM 292 SLS 291, 314 Smear 441 SMT 305 Snellius´sches Brechungsgesetz 6 Solarzelle 351 Solid Ground Curing 314 Soliton 164 Solitonenübertragung 162 Sondergläser 416 Sonderoptiken 266 Spannungsoptische Verfahren 248 Speckle-Pattern-Interferometrie 249, 255 Speckles 246 Spektive 416 Spektralanalyse 229 spektrale Absorption 317 spektrale Dispersion 317 spektrale Emission 342, 345 Spektrale Filter 128 spektrale Reflexion 345 spektrale Trennung 273
522
Index
Spektraleigenschaften 347 spektraler Remissionsgrad 183 Spektralfotometer 230 Spektrofotometer 128 Spektroskopie 361 Spektroskopie molekularer Schwingungen 362 spezifische Marker 379 Spiegel 106, 128 spots 367 Spritzgiessen 117 Spritzguss 119 Spritzprägen 117, 119 Sputter-Technologie 126 Stablinsenumkehrsystem 389 Statusanzeigen 339 Staubkonzentrationsmessung 224 Stauchprozesse 294 Stefan-Boltzmann-Gesetz 66 Stehende Wellen 40 Stereolithography Apparatus 314 Stereometrie 219 Stoffeigenschaften ändern 307 Strahldurchmesser 287 Strahlen 1 Strahlformung 106 Strahlichte 58 Strahlparameterprodukt 288 Strahlpropagationsfaktor 289 Strahlqualität 287 Strahlradius 287 Strahlstärke 58 Strahltaille 288 Strahlungsphysikalische Größen 57 Strahlungsthermometer 257 Strahlverfolgungsprogramme 340 Straßenverkehrsignal 333 Streifenlaser 80 Streifenprojektion 120, 241 Streucharakteristik 345 Streufolie 339 Streukoeffizient 372 Streulichtfotometrie 227
Streulichtgoniometer 346 Streulichtmessung 227 Streuung 371 Strukturieren 311 Strukturparameter 132 Stufenindexfaser 8 Stumpfstoss 303 Subminiaturlichtschranken 186 Substrat 122 Substratmaterial 367 Super Twisted Nematic 469 Superlumineszenzdioden 244 surface-mounted-technology 305 Suspensionen 112 SVGA-Auflösung 420 synthetische Wellenlänge 274 System mit Streuscheibe 327 Systemmatrix 17, 20
T Tagdesign 336 Tandemzellen 356 Target 367 Targets 126 Taschenferngläser 416 Teleskop 106, 415 telezentrischen Objektivsystem 202 Temperaturkompensation 251 Temperaturmessung 256 Therapie 361 Therapieverfahren 386 thermische Reaktionen 396 Thermografie-Kamera 257 Three Dimensional Printing 315 through-hole-technology 305 THT 305 Tief-Schweißen 299 TIRFM 375 TOF 209 Totalreflexion 8, 249, 385 Totalreflexions– Fluoreszenzmikroskopie 380
Index Transfermatrix 17 Transferrate 370 Transmissiometer 226 Transmission 345, 417 Trennen 108, 294 Triangulation 233, 234 Triangulations-Sensor 192 Tripelreflektoren 181 Tripelspiegel 180 Tücher 112 Turbidimetrie 371, 373 TV-Lupe 414 Twisted Nematic 466
U Überlappstoss 303 Übertragungskapazität 131 UHP-Lichtquelle 321 Ultraschall 264 Umformen 293 Umkehrsysteme 389 Umschmelzen 308 Umwandlungshärten 307 Universalgläser 416 Urformen 291
V VA-Display 472 Vaporisation 394, 396 Verformungsmessung 245 vergrößernde Sehhilfen 413 Vergrößerung 376, 416 Vergrößerungsgeräte 412 Vergütung 415 Verstimmung 128 Videoendoskope 393 Videomikroskopie 376 Vielmodenfaser 132
523
Vielstrahlinterferenz 42 Vordergrundausblendung 185 Vorschleifen 108
W Wärmeleitungs-Schweißen 299 Weißlicht-Heterodyn-Interferometer 272 Weißlicht-HeterodynInterferometrie 264 Weißlichtinterferometrie 243, 264 Weitfeldmikroskopie 376 Wellenfrontsensor 399 Wellenlänge 24 Wellenlängenmultiplexing 251 Wellenlängenmultiplexsystem 155 Wellenlängentrennung 106 Wellenleiterdispersion 144 Wellenoptik 23 Wellenwiderstand 26 Wellenzahl 24, 368 WHI 272 Wien´sches Verschiebungsgesetz 66 WIG 301 Wirkungsgrad einer Solarzelle 355 Wolfram-Inertgas 301
Z Zeilen- und Matrixsensoren 214 zeitaufgelöste Fluoreszenzspektroskopie 366 zeitlichen Stabilität 276 Zeit-Mittelungsverfahren 255 Zweiphotonenmikroskopie 382 Zwei-Punkt-Vibrometer 255 Zwei-Wellenlängen-Interferometrie 272