Michael A. Orloff Grundlagen der klassischen TRIZ
Michael A. Orloff
Grundlagen der klassischen TRIZ Ein praktisches ...
187 downloads
1734 Views
4MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Michael A. Orloff Grundlagen der klassischen TRIZ
Michael A. Orloff
Grundlagen der klassischen TRIZ Ein praktisches Lehrbuch des erfinderischen Denkens für Ingenieure
3., neu bearbeitete und erweiterte Auflage Mit 374 Beispielen und 238 Abbildungen
123
Professor Dr. Dr. sc. techn. Michael A. Orloff Modern TRIZ Academy International Europa Center 10789 Berlin www.modern-triz-academy.com
Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.
ISBN-10 3-540-34058-0 Springer Berlin Heidelberg New York ISBN-13 978-3-540-34058-4 Springer Berlin Heidelberg New York ISBN 3-540-24018-7 2. Aufl. Springer-Verlag Berlin Heidelberg New York Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer.de © Springer-Verlag Berlin Heidelberg 2002, 2005, 2006 Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, daß solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Text und Abbildungen wurden mit größter Sorgfalt erarbeitet. Verlag und Autor können jedoch für eventuell verbliebene fehlerhafte Angaben und deren Folgen weder eine juristische Verantwortung noch irgendeine Haftung übernehmen. Sollte in diesem Werk direkt oder indirekt auf Gesetze, Vorschriften oder Richtlinien (z. B. DIN, VDI, VDE) Bezug genommen oder aus ihnen zitiert worden sein, so kann der Verlag keine Gewähr für die Richtigkeit, Vollständigkeit oder Aktualität übernehmen. Es empfiehlt sich, gegebenenfalls für die eigenen Arbeiten die vollständigen Vorschriften oder Richtlinien in der jeweils gültigen Fassung hinzuziehen. Satz: Digitale Druckvorlage des Autors Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig Einbandgestaltung: Struve & Partner, Heidelberg Gedruckt auf säurefreiem Papier
SPIN: 11744108
7/3100/YL - 5 4 3 2 1 0
Heuristik des Erfindens Vorwort von Prof. Dr. habil. Martin G. Möhrle Technische Anwendungswissenschaften, seien es die Elektronik, die Thermodynamik, die Verfahrenstechnik, der Maschinenbau, die Luft- und Raumfahrttechnik etc., stellen theoretische Grundlagen, Modelle und Methodiken zur Problemlösung speziell in ihrem Feld zur Verfügung. Der russische Forscher Genrich S. Altschuller (1926-1998) hat den Versuch unternommen, über alle diese Anwendungswissenschaften hinweg zu generalisieren, d.h. theoretische Grundlagen, Modelle und Methodiken zu finden, die in allen technischen Anwendungswissenschaften gelten. Er hat für diesen Zweck eine Theorie des erfinderischen Problemlösens entwickelt, die mittlerweile in aller Welt bekannt ist und unter dem Kürzel TRIZ diskutiert und angewendet wird. Als Gemeinsamkeit in allen technischen Anwendungswissenschaften – und damit als zentraler Begriff der TRIZ – tritt die Erfindung im Sinne der neuartigen Lösung eines Problems hervor. Altschuller hat zahlreiche solcher Erfindungen anhand von Schutzrechtsschriften untersucht. Er kam zu zwei Feststellungen: Erstens lassen sich Erfindungen günstiger Weise über den Widerspruch charakterisieren, den sie überwinden helfen. Zweitens lassen sich trotz aller Vielfalt der technischen Erfindungen wesentliche Gemeinsamkeiten erkennen. Altschuller hat u.a. acht sehr abstrakt gefasste Entwicklungsgesetze technischer Systeme aufgestellt, vierzig wesentlich konkretere Erfindungsprinzipien formuliert und darüber hinaus eine Vielzahl an einzelnen Werkzeugen entwickelt. Viele der Werkzeuge haben heuristischen Charakter, das schmälert aber ihren Anwendungsnutzen nicht. Mit dem vorliegenden Buch greift nun Michael Orloff als ein Nachfolger Altschullers dessen wertvollen Gedanken auf und macht sie in enger Anlehnung an die russischen Originalquellen in der deutschen Sprache zugänglich. Besonders hervorzuheben ist die verständliche und schwungvolle Darstellung bei gleichzeitig hoher fachlicher Fundierung. Das vorliegende Buch sei empfohlen für: -
Ingenieure und Techniker in der unternehmerischen Praxis sowie in Forschungseinrichtungen,
-
darunter vor allem auch Anwendern von Software-Produkten wie dem Tech Optimizer der Firma Invention Machine sowie der InnovationWorkBench der Firma Ideation International und natürlich Anwendern der, was ihre integrierenden Funktionen betrifft, innovativen Software TRIZ Idea Navigator™ PentaCORE™, die unter der Leitung von Prof. M. Orloff entwickelt wurde,
-
Wissenschaftler auf dem Gebiet der Planungslehre technischer Systeme (über alle Disziplinen hinweg) sowie,
-
last but not least: allen an Erfindungen interessierten Personen.
VI
Vorwort von Prof. Dr. habil. Martin G. Möhrle
Erfinden ist das neuartige Lösen technischer und technisch-wirtschaftlicher Probleme. Es bildet den Kern einer Innovation. Erfinden gilt allenthalben als ein kaum steuerbarer Prozess, dessen Erfolg vornehmlich von der Fachkompetenz, der Kreativität und dem Glück des Erfinders abhängig ist. Altschuller ist anerkanntermaßen der Pionier auf dem Gebiet des methodischen Erfindens. TRIZ ermöglicht es, die Fachkompetenz und die Kreativität des Erfinders systematisch und zielgerichtet zu kombinieren und damit das Erfinden weniger vom Glück abhängig zu machen. Durch TRIZ Re-Inventing kann man Erfinden in gewissen Grenzen erlernen und lehren. Schließlich legt TRIZ die Grundlage für ein gemeinsames Verständnis aller am Erfindungsprozess Beteiligten und kann daher besonders gut im Team angewendet werden sowie zu einem Kommunikationsund Führungsinstrument ausgebaut werden. Mit Hilfe der TRIZ lässt sich ein leistungsfähigeres und gleichzeitig schlankeres Wissensmanagement in technischen Bereichen umsetzen. Michael Orloff weist mit seinem Buch einen Weg dorthin. Mögen die Leser dem Autor folgen und den Nutzen erschließen.
Prof. Dr. habil. Martin G. Möhrle Universität Bremen, Lehrstuhl für Betriebswirtschaftslehre mit den Schwerpunkten Innovation und Kompetenztransfer Bremen, im September 2001
Meinem Sohn Alexey in Liebe und Hochachtung für seine Güte, Zielstrebigkeit und seinen Mut
Internationale Bezeichnung: TRIZ Ursprünglicher Titel in Russisch: Ɍɟɨɪɢɹ Ɋɟɲɟɧɢɹ ɂɡɨɛɪɟɬɚɬɟɥɶɫɤɢɯ Ɂɚɞɚɱ „Teorija Reschenija Izobretatel'skich Zadaþ“ ĺ TRIZ Deutsche Version: Theorie des erfinderischen Problemlösens Englische Version: Theory of Inventive Problem Solving
Für die effektive Lösung von Aufgaben beim Erfinden auf höherem Niveau bedarf es eines heuristischen Programms, das die stets neue Auswahl von Varianten durch ein zielgerichtetes Vordringen in den Bereich der Lösung ersetzt.
Genrich Altschuller Algorithmus des Erfindens Moskau, 1973
TRIZ-Algorithmen für die Navigation des Denkens: Lehrzeit und Meisterschaft des Erfindens Vorwort des Autors zur zweiten Auflage Der Prozess der Entwicklung neuer Systeme und Technologien beruht auf der Suche nach innovativen Ideen. Die Schaffung starker Ideen erfordert letztendlich Forschungen und die Entwicklung perspektivischer Richtungen. Allwöchentlich benötigen wir große und auch kleine Lösungen in unserer Projektierungstätigkeit. Die Suche nach Ideen ist einer der kompliziertesten und dramatischsten Akte des innovativen Prozesses. Bis heute gibt es keine Lehreinrichtung, die systematisch und gerichtet die TRIZ-Methoden für die Schaffung neuer Ideen lehrt. Wobei das Schlüsselproblem einer solchen Lehre die Entwicklung der theoretischen Grundlagen eben einer solchen TRIZ-Ausbildung ist. Jede Tätigkeit ergibt sich aus den Prinzipien ihrer Organisation. Deshalb wurden in diesem Buch einige moderne theoretische Konzeptionen der TRIZ dargestellt, die für ihre effektive Anwendung, für das Selbststudium und für die Organisation von TRIZ-Lehrkursen an unterschiedlichen Bildungseinrichtungen wichtig sind. Der Platz und die Rolle des Lehrprozesses der Grundlagen der TRIZ und ihrer späteren Anwendung in der Praxis sind im folgenden Schema dargestellt, was die Philosophie der Entwicklung von TRIZ-Anwendungen in Form eines „3E-Modells“ aufzeigt: 2. Entwicklung und Anwendung der TRIZ und Datenbank von TRIZ-Patterns für die Ausbildung
3. Entwicklung und Anwendung der TRIZ und Datenbank von TRIZ-Patterns für die Erfindung von Ideen
1. Akkumulation von standardisierten TRIZPatterns in der speziellen Datenbank (TRIZ Idea Pool)
Die konzeptionellen Grundlagen der Lehre und Anwendung der TRIZ können in einer Triade ausgedrückt werden: Re-Inventing, Standardisierung und kreative Navigation. Eigentlich werden die gesamten Erfahrungen der TRIZ aus der Praxis extrahiert (experience), aus der Analyse realer Erfindungen und hocheffektiver innovativer Lösungen. Speziell das Re-Inventing gilt als Prozess der Erforschung und Extraktion der Schlüsselideen solcher Lösungen. Das TRIZ Re-Inventing wird so durchgeführt, als wäre jede analysierte Erfindung auf der Basis der TRIZ gemacht worden. Das hilft, die objektive Logik und die objektiven kreativen Entdeckungen des Autors einer Erfindung zu verstehen und sie in einer Form darzustellen, die mit Sicherheit all jenen verständlich und zugänglich ist, die sehen möchten, wie diese oder jene Erfindung konkret gemacht wurde.
X
Vorwort des Autors zur zweiten Auflage
Das Re-Inventing stützt sich auf 4 fundamentale Etappen, die gemeinsam den vom Autor entwickelten Meta-Algorithmus des Erfindens (Meta-ARIZ) bilden. Es ist sinnvoll, die Ergebnisse eines Re-Inventings in einer bestimmten standardisierten Form darzustellen, in der alle prinzipiell wichtigen Aspekte der Schaffung einer Erfindung oder Innovation akkumuliert sind, das heißt konkret: das Wesen einer Problemsituation, Modelle von Widersprüchen, Modelle von Ressourcen, Modelle von Transformationen (Navigatoren), mit Hilfe derer es gelang ein „unlösbares Problem“ zu lösen, und einige andere wichtige Details. Und erneut erweist sich der Meta-ARIZ als eine solche standardisierte Form. Speziell im Format des Meta-ARIZ ist es gelungen, eine Datenbank für das Akkumulieren von TRIZ-Wissen in einer Form zu schaffen, die dieses Wissen sowohl Spezialisten als auch Studenten und sogar Schülern zugänglich macht (education). Jeder Projektingenieur und Forscher, Erfinder und Innovator braucht einfache und effektive Schemata für die „Navigation des Denkens“. Der Meta-ARIZ, dessen Etappen über konkrete Navigatoren verfügen, wird zu einem Instrument für die Konstruktion effektiver Ideen (evolution). Auf der Grundlage des MetaARIZ können unterschiedliche „Wegbeschreibungen“ der gedanklichen Bearbeitung von Kenntnissen zu Problemsituationen, Zielen und Ressourcen der Suche vorgeschlagen werden, anhand derer man sich sicher in Richtung effektiver Lösung bewegen kann. Diese Möglichkeiten wurden speziell in Referenzen im TRIZ Journal1 zur ersten Ausgabe dieses Buchs betont: „... Bemerkenswert ist auch der Meta-Algorithmus, der sowohl jenen, die mit der TRIZ nicht vertraut sind, als auch jenen die das Thema kennen dabei hilft, … die Transformationen des Ausgangsproblems bis hin zu seiner Verifizierung, eben der Klärung, ob der Widerspruch gelöst wurde, zu verstehen. Der Autor erkennt, dass der Übergang von einem Teil des Algorithmus zum anderen nicht einfach ist, dass das jedoch hilft zu erlernen, wie man bei der Verwendung vieler einfacher Beispiele denken muss, die mit klaren und sehr gut definierten Abbildungen illustriert sind.“ Eine kurze Zusammenfassung kann man mit den Worten von Genirch Altschuller, dem Autoren der TRIZ (s. S. 15) anführen: „… für die Lösung erfinderischer Aufgaben sind nicht einmal so sehr neue Kenntnisse nötig, sondern eine gute Organisation der Kenntnisse, über die der Mensch bereits verfügt.“ Deshalb kann das gesamte Programm der systematischen TRIZ-Lehre – vom Anfänger bis zum Erlangen der Meisterschaft – nach den Erfahrungen des Autors – auf dem ReInventing, der Standardisierung und der kreativen Navigation, die auf dem MetaARIZ basiert, aufgebaut werden. Dieses Buch kann Ihnen2 als gute Einführung in die Technik der erfinderischen Synthese von Ideen dienen. Das Material dieses Buchs wird außerdem auch aktiv in der TRIZ-Software des Autors, sowie in seinen TRIZ-Kursen verwendet, die auf das Erlangen der Meisterschaft des kreativen Denkens gerichtet sind. Michael A. Orloff 1 2
Berlin, im Oktober 2004
Übersetzung aus dem TRIZ Journal 11’2003. Ich bitte, dass sich bei einer Ansprache als „Leser” selbstverständlich auch alle sehr geehrten Leserinnen angesprochen fühlen.
Die TRIZ am Anfang des XXI. Jahrhunderts Vorwort des Autors Es ist nie zu früh, an morgen zu denken. Federico Mayor 3 Ja, die Menschheit entwickelte sich auf der Stufenleiter von Erfindungen. Geniale Erfindungen ließen die Menschheit in Schwindel erregende Höhen schnellen. Millionen anderer Erfindungen festigten diese Leiter und das gesamte Gebäude der Zivilisation. Der Aufstieg der Zivilisation beschleunigte sich unaufhaltsam. Doch der Prozess des Erfindens blieb über all diese Zeiträume hinweg unverändert. Quälendes Kopfzerbrechen über ein Problem, Suche in zufällige Richtungen, unzähliges erfolgloses Probieren, Herumirren im Labyrinth, bei Nebel im Kreise wandern, und nur ganz selten tauchten wie ein Lichtstrahl im tiefsten Dunkel, wie die Erfüllung des sehnlichsten Traums oder wie die Heilung von einer unheilbaren Krankheit – unerwartete Ideen auf! So verhält es sich mit dem Erfinden. Und manchmal waren Erfinder ihr ganzes Leben lang auf der Suche. Es gab viele Enthusiasten, die versuchten dem Geheimnis der Geburt einer Erfindung auf die Spur zu kommen. Geniale Wissenschaftler versuchten, Theorien der Kreativität zu entwickeln. Herausragende Pragmatiker sammelten viele nützliche Empfehlungen für die Stimulation der Entwicklung von Ideen und wendeten sie an. Jedoch, all das ließ sich in der Praxis nur schlecht anwenden. Das Erfinden zu erlernen blieb unmöglich! Und das, weil es unmöglich blieb, individuelle und historische Erfahrungen beim Erfinden zu erklären und weiterzugeben. Bekannte Beschreibungen erfinderischer Kreativität wurden nur in Metaphern, mit Emotionen und einzelnen nützlichen Ratschlägen festgehalten. All das war nicht wissenschaftlich, es gab keine Gesetze und Methoden. Aber es konnte auch nicht als eine Kunst betrachtet werden, denn auch Kunst lässt sich zu großen Teilen lehren und erlernen. Ungeachtet dessen, forcierte sich der Aufstieg der Zivilisation. Und die Begeisterung über den Fortschritt, angesichts von Automobilen, Fernsehern, Flugzeugen, Weltraumraketen, von Internet und Handys wurde so groß und so allumfassend, dass nur wenige Menschen im 20. Jh. auch die tödlichen Gefahren erkannten, die all diese Dinge in ihrer Komplexität für die Menschheit in sich bergen. Die schockierende Wahrheit über sich nahende globale Katastrophen, die durch die Zerstörung der Natur aufgrund von Industrie und Technik hervorgerufen wurden, konnte die Menschheit immer noch nicht ernüchtern. Verantwortungslosigkeit und Egoismus vieler technokratischer Strukturen, das Fehlen von speziellen Kenntnissen über Fragen des globalen Überlebens und das Fehlen global koordinierender Instanzen, ganz zu schweigen von Problemen bei der Konsolidierung von Anstrengungen der Industrieländer – all das muss so schnell wie möglich von Grund auf verändert werden.
3
Federico Mayor – ehem. Generalsekretär der UNESCO (2001)
XII
Vorwort des Autors
Die Sicherheit der Zukunft muss Ziel und Motivation jeglicher Bemühungen für den Fortschritt und jeglicher Politik sein. Ingenieure, Pädagogen und Wissenschaftler können dabei auch einen Teil persönlicher Verantwortung übernehmen. Individuell und mit Hilfe von Berufsvereinigungen sollte nach organisatorischen und technischen Möglichkeiten gesucht werden, globale technogene, übrigens auch soziogene, Katastrophen auszuschließen. Angesichts der äußerst kurz bemessenen Zeit für eine Erfindung und der Umsetzung (!) von grundlegenden Ideen, ist es bei weitem nicht genug, sich nur auf die Methode der Ideensuche zu verlassen, die unsere ja so wunderbare, aber auch so unvollkommene Zivilisation hervorgebracht hat. Vielleicht ist ja diese Zivilisation deshalb so unvollkommen, weil die Methoden ihrer Gestaltung unvollkommen sind. Wer aber steuert die Entwicklung der Menschheit? Kann man wirklich eine sichere Prognose über unseren Weg in die Zukunft abgeben? Wie lassen sich soziogene, geogene und kosmische Katastrophen verhindern? Wie kann der Fortschritt und die Sicherheit der kommenden Generationen gewährleistet werden? Die TRIZ lehrt Erfindungen zu machen! Die TRIZ lehrt die Zukunft zu konstruieren! Die TRIZ verändert Ihr Denken, d.h. auch die ganze Zivilisation! Es lassen sich heute keine rationalen Entscheidungen zu diesen Problemen ohne Anwendung der TRIZ treffen. Von allen möglichen Wissenschaften und Lehren, die aus dem II. Jahrtausend n. Chr. der Menschheit bleiben werden, wird die TRIZ ein unschätzbarer Teil sein. Was kann denn wirklich wertvoller sein, als eine Wissenschaft darüber, wie man erlernen kann, effektiv zu denken! Ein Erfinder zu werden! Oder sogar ein Genie! Die Hauptkonzepte der TRIZ in ihrer modernen Fassung bestehen in folgendem: 1. Alle Systeme (nicht nur technische) werden entwickelt, um eine bestimmte Funktion zu erfüllen, die so bezeichnete nützliche Hauptfunktion des Systems. Sie entwickeln sich nach bestimmten Gesetzen, die erkennbar sind und auf die Steuerung der Entwicklung von Systemen angewendet werden können. 2. Alle Systeme streben während ihres Lebenszyklus danach, ihre Effektivität zu erhöhen, die als Verhältnis von positiven Faktoren bei der Realisierung der nützlichen Hauptfunktion und negativen Faktoren, die durch Aufwand bei der Entwicklung, Nutzung und Anwendung des Systems, sowie bei der Kompensation schädlicher Einflüsse auf die Umwelt entstehen, aufgefasst wird. 3. Alle Systeme (im Verhältnis zu umgebenden Systemen) und Komponenten von Systemen entwickeln sich ungleichmäßig, was den Hauptgrund des langsamen Wachstums der Effektivität neuer Systeme ausmacht und das Entstehen technischer Probleme hervorruft. 4. Die Grundlage aller technischen Probleme bilden Widersprüche zwischen unvereinbaren Eigenschaften und Anforderungen, die für die Realisierung der nützlichen Hauptfunktion der Komponenten und des Systems im Ganzen unabdingbar sind. 5. Die Lösung eines solchen Widerspruchs (mit technischen Mitteln) ist dann eine Erfindung.
Die TRIZ am Anfang des XXI. Jahrhunderts
XIII
6. Die Anzahl verschiedener Typen von Widersprüchen ist begrenzt, was die Möglichkeit bietet, sie in realen Problemen präzise zu erkennen, und sie zu deren Lösung mit adäquaten Methoden zu verwerten. 7. Adäquate Methoden der Lösung von Widersprüchen können durch Untersuchung einer ausreichend großen Anzahl (einer repräsentativen Auswahl) realer Erfindungen, anhand von Patentbeschreibungen und technischer Literatur entwickelt werden. 8. Methoden der Lösung von Widersprüchen wie Navigatoren des Denkens können zusammen mit Verfahren zur Entwicklung und Stimulation des Gedächtnisses, der Aufmerksamkeit, des assoziativen Denkens, der Vorstellungskraft und verschiedenster anderer nützlicher Eigenschaften des Intellekts und der Psyche angewendet werden. 9. Navigatoren des Denkens können auch zusammen mit Methoden zur Steuerung der Entwicklung komplizierter Systeme – ökonomischer, systemtechnischer, kulturell-erzieherischer und sogar politischer, angewendet werden. Für die Entwicklung der ersten Navigatoren zur Lösung von Widersprüchen (so genannte Verfahren) in der TRIZ wurden mehrere Tausend Erfindungen untersucht. Derzeit beträgt die Anzahl der untersuchten Erfindungen mehr als 2,5 Mio. Die TRIZ-Navigatoren haben sich über viele Jahre hinweg in der Praxis bewährt und werden weiterhin erfolgreich angewendet. Eingangs des 21. Jh. ist die TRIZ die einzige konstruktive Theorie des Erfindens, und vom Wesen her, die Theorie der ingenieurtechnischen Kreativität. Die TRIZ ist noch lange nicht erschöpft. Sie muss weiterentwickelt, strukturiert und axiomatisiert werden. Mit ihr können spezielle und kombinierte Theorien und Methoden entwickelt werden, wie z.B. die integrierende Theorie CROST – Constructive Result&Resource-Oriented Strategy of Thinking&Transforming, die vom Autoren dieses Lehrbuchs entwickelt wurde. Nach dem Muster der TRIZ müssen auch weiterhin Patentbestände und wissenschaftlich-technische Literatur untersucht werden. Jedoch bleiben dabei die Hauptprinzipien der TRIZ grundlegend invariant, so, wie es bei jeder anderen wirklichen Theorie auch der Fall ist, und sie können demzufolge als klassische Prinzipien betrachtet werden. Obwohl das Studium der Grundlagen der TRIZ einer bestimmten Zeit und gewissen Praxis bedarf, wird diese Theorie sich in Ihrer künftigen Tätigkeit bewähren, egal in welchem Beruf. Die Methoden der TRIZ gestatten es, mit geringerem Aufwand und schneller, qualitativ hochwertige Lösungen zu finden. Die TRIZ ist bei der Lösung extrem schwieriger Probleme, einfach nicht zu ersetzen. In meiner über 40 Jahre langen TRIZ-Praxis, die seit 1963 währt, als ich mein erstes kleines Buch [2] von Genrich Altschuller gelesen hatte, habe ich von keinem gehört, der ihre Methoden und Modelle studierte, und sie dann verworfen hat. An dieser Stelle scheint es mir auch angebracht, eine Aussage des Autors der TRIZ anzuführen: „Die TRIZ dient dem Denken, sie ersetzt es aber nicht“. Meine besondere Anerkennung gebührt vielen Spezialisten, die meine Idee unterstützt haben, das erste Lehrbuch zu den Grundlagen der klassischen TRIZ zu schreiben. Eine große Hilfe waren dabei Gespräche mit Prof. H.-J. Linde (FH Coburg) und Dr. R. Thiel, Dr. D. Zobel sowie Dr. M. Herrlich.
XIV
Vorwort des Autors
Begegnungen mit Prof. W. Beitz und Prof. G. Seliger (TU Berlin) halfen, mir die kreativen Komponenten der Hochschulbildung in Deutschland kennen zu lernen. Die Ideen von Prof. G. Ropohl (J.W. Goethe-Universität, Frankfurt am Main) zu Problemen und der Rolle der Technokratie bei der Erhaltung und der Entwicklung der Zivilisation, die ohne Umweltschutz und humanistische Sozialethik undenkbar ist und seine wohlmeinenden Briefe, bestärkten mich bei meinem Vorhaben. Es würde zu weit gehen, hier alle zu nennen, die es uns durch ihre Hilfe ermöglichten, in Deutschland zu leben und zu arbeiten. Jedoch möchte ich mich besonders bei Herrn Udo Matusch (Ingenieur und Unternehmer, Geschäftsführer der Firma AMT Automatisierungstechnik GmbH, Essen) bedanken, der mich als erster nach Deutschland einlud und mir 2 Jahre lang die Möglichkeit gewährte, an der Adaption der TRIZ-Methodologie für Deutschland in seiner Firma zu arbeiten. Tiefe Anerkennung gehört ebenso der Ingenieurin und Erfinderin Frau Katharina Koterewa, Geschäftsführerin der Firma ZWEK Vakuumtechnik GmbH, Apolda, die in einer für mich sehr schwierigen Situation bei meinem Umzug nach Berlin bei sich in Thüringen für mich ideale Bedingungen geschaffen hat, meine Gedanken zu ordnen und Hoffnung und Optimismus zu bewahren. Herzlicher Dank gilt auch meinem Freund Heinrich Kochs (Spezialist von VOLKSWAGEN) für viele Tage des Nachdenkens und des Diskutierens, sowie dafür, dass er mir seinerzeit sein Gartenhaus mit großer Bibliothek und besten Möglichkeiten für meine Arbeit in einer wunderbar ruhigen Gegend unter Tannen bei Hannover zur Verfügung gestellt hat. Ich danke ebenso der Managerin des IGZ-OWZ Berlin Frau Dr. Lydia Dessau, die gemeinsam mit uns alle Schwierigkeiten bei der Entstehung unserer Firma durchlebt hat. Ich danke ihrem Ehemann, dem Mitarbeiter des SIEMENS-Konzerns Herrn Hartmut Dessau, der mir immer mit konstruktiver Kritik zur Seite stand. Und ich danke ihnen beiden, dafür, dass sie uns für eine lange Zeit ihr idyllisches Wochenendhäuschen an der Dahme überließen. Besonders dankbar bin ich Herrn Prof. Martin Möhrle (früher Brandenburgische Technische Universität Cottbus, heute Universität Bremen), dessen energische und rechtzeitige Unterstützung es überhaupt erst möglich machte, hier in Deutschland weiter zu arbeiten und meine wichtigsten Arbeiten zu veröffentlichen. Ich bin dem Springer Verlag zutiefst verbunden, der mir den Vorschlag gemacht hat, ein Lehrbuch zu den Grundlagen der klassischen TRIZ zu schreiben. Ich hoffe, dass die dem Geiste der TRIZ entsprechende Übersetzung ins Deutsche von Harald Lemanski, meinen geschätzten Lesern bei der Akzeptanz des Lehrbuchs helfen wird. Ich danke meinem Sohn Nicolai für seinen Beitrag für die Verbesserung dieses Buches und für das feinfühlige Verständnis der TRIZ und für den Glauben an die Zukunft der TRIZ. Ich wünsche natürlich allen Erfolg, die sich nicht fürchten, bei der Schaffung und Weiterentwicklung technischer Systeme, neue Ideen zu suchen und daran denken, dass jede unserer Lösungen in gewissem Maße die Menschheit verändert. Michael A. Orloff
Berlin, im August 2001 – Oktober 2004 – Juni 2006
Inhaltsverzeichnis
Einführung
1
1 Erfindung der Zivilisation
1
2 Re-Inventing – die Schlüsselkonzeption des Studiums und Selbststudiums der TRIZ
3
Methoden des Erfindens
16
3 Erfindung
16
3.1 Entdeckung und Erfindung 3.2 Niveaus von Erfindungen 4 Erfinderische Kreativität 4.1 Erfinden von Theorien des Erfindens 4.2 Traditionelle Methoden des Erfindens 5 Klassische TRIZ
16 18 20 20 30 36
5.1 Ideen der TRIZ 5.2 Das Werden der klassischen TRIZ 5.3 Struktur der klassischen TRIZ
36 38 44
Praktikum für die Abschnitte 3 – 5
47
Inhaltsverzeichnis
XVI
A-Studio: algorithmische Navigation des Denkens
50
6 Von der Praxis zur Theorie
50
6.1 A-Navigation des Denkens 6.2 A-Navigatoren des Erfindens 7 Disziplin der Kreativität 7.1 Disziplin und Inspiration 7.2 Meta-Algorithmus des Erfindens 8 Operative Zone 8.1 Epizentrum des Problems 8.2 Ressourcen 9 Vom Bestehenden zum Entstehenden 9.1 9.2 9.3 9.4
Widersprüche Funktionales ideales Modellieren Reduktion und Transformationen Klassifikation der A-Modelle für Transformationen
Praktikum für die Abschnitte 6 – 9
Klassische Navigatoren des Erfindens des A-Studios 10 Navigatoren für Standardlösungen 10.1 Kataloge komplexer Transformationen 10.2 Anwendungsprinzipien für Standardlösungen
50 54 64 64 70 84 84 89 98 98 108 116 137 140
142 142 142 143
Inhaltsverzeichnis 11 Navigatoren für die Lösung technischer Widersprüche 11.1 11.2 11.3 11.4
Integration inverser technischer Widersprüche Katalog und Matrize spezialisierter Transformationen Prinzipien für die Anwendung der Navigatoren Integration alternativer Widersprüche – die CICO-Methode
XVII
152 152 154 156 170
12 Navigatoren für die Lösung physikalischer Widersprüche
175
12.1 Integration physikalischer Widersprüche 12.2 Kataloge der fundamentalen Transformationen 12.3 Anwendungsprinzipien für fundamentale Transformationen
175 179 183
13 Navigatoren für die Suche nach neuen Funktionsprinzipien
197
13.1 Kataloge technischer Effekte 13.2 Prinzipien für die Anwendung technischer Effekte Praktikum für die Abschnitte 10 – 13
Strategie des Erfindens 14 Steuerung der Systementwicklung
197 199 210
211 211
14.1 Entwicklung von Systemen 14.2 „Ideale Maschine“ 14.3 Kurve des Anstiegs des Hauptparameters eines Systems
211 217 220
15 Klassische TRIZ-Modelle der innovativen Entwicklung
226
15.1 TRIZ-Gesetze der Entwicklung von Systemen 15.2 Linien der systemtechnischen Entwicklung 15.3 Integration alternativer Systeme
226 229 243
Praktikum für die Abschnitte 14 – 15
255
XVIII
Inhaltsverzeichnis
Taktik des Erfindens 16 Diagnostik des Problems 16.1 Typen von Problemsituationen 16.2 Algorithmus der Diagnostik einer Problemsituation 17 Verifikation der Lösung
257 257 257 260 266
17.1 Effektivität der Lösung 17.2 Entwicklung der Lösung 17.3 Algorithmus der Verifikation von Lösungen
266 268 271
Praktikum für die Abschnitte 16 – 17
271
Erfindungskunst 18 Pragmatismus der Phantasie 18.1 Nicht-algorithmische TRIZ-Methoden 18.2 Modelle „Phantogramm“ und „War – Wurde“ 18.3 Modellieren mit kleinen Figürchen 19 Integration der TRIZ in die professionelle Tätigkeit 19.1 19.2 19.3 19.4
Motivation und Persönlichkeitsentwicklung Adaptation des TRIZ-Wissens für den Beruf Zehn typische Fehler Reinventing praktischer Beispiele
Praktikum für die Abschnitte 18 – 19
274 274 274 278 284 288 288 290 294 295 308
Inhaltsverzeichnis
Entwicklung der TRIZ 20 Auswahl einer Strategie: Mensch oder Computer? 20.1 TRIZ-Wissen: Entwicklungs- und Anwendungsstrategien 20.2 Homo Inventor: der erfinderische Mensch 20.3 CROST und PentaCORE: fünf Kerne der Kreativität 21 CAI: Computer Aided Innovation 21.1 Von der Invention Machine zum CoBrain 21.2 Vom Problem-Formulator zur Innovation Workbench 21.3 TRIZ Idea Navigator: Integration der Intellekte
XIX
310 310 310 313 315 320 320 322 322
Schlußwort
339
Anlagen: Kataloge der Navigatoren des Erfindens im A-Studio
342
1 Funktion-Struktur-Modelle 2 A-Kompaktstandards 3 A-Matrize zur Auswahl der spezialisierten Navigatoren 4 Spezialisierte A-Navigatoren 5 Fundamentale Transformationen 6 Fundamentale Transformationen und A-Kompaktstandards 7 Fundamentale Transformationen und spezialisierte A-Navigatoren 8 Physikalische Effekte 9 Chemische Effekte 10 Geometrische Effekte
343 344 347 354 365 366 368 370 374 377
Beispielverzeichnis
378
Antworten und Lösungen
383
Sachverzeichnis
388
Literatur
391
Zusätzliche Informationsquellen
391
Die Methodik der erfinderischen Kreativität ist kein Rezept dafür, Erfindungen zu machen. Technisches Wissen lässt sich auch durch sie nicht ersetzen. Jedoch hilft die Methodik, Wissen mit äußerster Effektivität anzuwenden. Das Studium der Methodik garantiert auch nicht, dass ein Erfinder dann einen Popow oder Edison übertrifft. Andererseits garantieren aber auch Seminare an einer Universität nicht, dass ein Student mit der Zeit Newton oder Einstein den Rang abläuft.
Genrich Altschuller Flügel für Ikarus Petrosawodsk, 1980
Einleitung
NATURA NIHIL EST CALLIDIUS4
1 Erfindung der Zivilisation Dies ist ein Lehrbuch für die Kreativität des technischen Schaffens. Und vor allem für den Gipfel des technischen Schaffens – das Erfinden5. Die Menschheit entwickelte sich auf der Stufenleiter von Erfindungen. Und heute tragen Entdeckungen und Erfindungen die Menschheit, als würde sie auf einer grandiosen Rolltreppe stehen, immer weiter und immer schneller voran. Wenn wir davon ausgehen, dass heute das produktive Alter eines Menschen bis zu 40 Jahren beträgt, und wir dann die Anzahl der Generationen betrachten, die diese Zeitspanne durchlebt haben, können wir die Entwicklungsgeschwindigkeit der Zivilisation erst richtig bewerten. In den letzten 40000 Jahren bezogen auf 1000 Generationen: - existierten mehr als 800 ohne künstlich angelegte Unterkünfte, in Wäldern und Höhlen; - erst 120 Generationen kennen und benutzen das Rad; - etwa 55 Generationen kennen und nutzen das Gesetz des Archimedes; NB - etwa 40 Generationen nutzen Wind- und Wassermühlen; - etwa 20 Generationen kennen und nutzen Uhrwerke; - etwa 10 Generationen kennen den Buchdruck; - 5 Generationen bewegen sich mit Schiffen und Eisenbahnen fort; - 4 Generationen verwenden elektrisches Licht; - 3 Generationen bewegen sich im Automobil fort, benutzen das NNB Telefon und den Staubsauger; - 2 Generationen bewegen sich mit Flugzeugen fort, benutzen das Radio und den Kühlschrank; - erst die heutige Generation flog ins Weltall, nutzt die Atomenergie, benutzt PCs und Notebooks, überträgt Audio-, Video- und andere NNNB Informationen mit Hilfe künstlicher Satelliten über den Erdball. Im XX. Jahrhundert sind 90% des Wissens und aller materiellen Werte, die in der Geschichte der Menschheit hervor gebracht wurden, entstanden! 4
Es gibt nichts erfinderischeres als die Natur / Marcus Tullius Cicero (106-43 v. Chr.), römischer Rhetoriker, Philosoph, Staatsmann 5 Meine Lieblingsmetapher aus dem Buch von Vikentiev I.L. und Kaikov I.K. „Die Stufenleiter der Ideen“ (in Russisch), 1992
2
Einleitung
Es ist schon interessant festzustellen, dass sich in den letzten -zig, ja sogar in hundert Tausend Jahren (!), das Gehirn des Menschen als biologisches Objekt nicht verändert hat. Der Aufbau, und anscheinend auch die Prinzipien der Arbeit des Gehirns, sind noch immer dieselben, wie sie vor, sagen wir, 50000 Jahren waren. Man weiß, dass das Gehirn des Menschen, wie viele biologische Objekte der Natur, mit einer riesigen „funktionellen Überkapazität“ ausgestattet ist. Man kann auch erkennen, dass die Natur dieses Prinzip recht großzügig für den Erhalt des Lebens auf der Erde verwendet, sei es durch die Verteilung von Samen oder sei es durch die Aufrechterhaltung einer notwendigen Größe der Biopopulation. Dennoch schaffen die rein biologischen Überkapazitäten des Gehirns noch keine Qualität des Denkens. Wahrscheinlich beträgt aus diesem Grund die Anzahl wirklich wertvoller Erfindungen nicht mehr als 1% der Gesamtzahl aller Patentschriften! Die Qualität des Denkens kann sich in einer großen Bandbreite ändern und hängt von der Qualität des Lernens und der Lehrinhalte ab. Moderne Technologien und Lehrinhalte für Individuen sind nicht frei von prinzipiellen Mängeln. Aus diesem Grund, und natürlich unter dem Einfluss des sozialen Milieus, entwickelt sich die Menschheit heute immer noch eher nach „biologischen“, stochastischen Gesetzen. Das aber ist in unserer Zeit einfach eine unzulässige Vergeudung von Potential. Es fördert die Wahrscheinlichkeit einer Reproduktion geistiger Mittelmäßigkeit und führt wohl kaum zum Entstehen von Genies. Wir sehen auch, dass die Informationsfülle, die Maßstäbe und die Bedeutung der zu lösenden Probleme sich grundlegend geändert haben. Ist das Gehirn des Menschen auch weiterhin in der Lage mit der ständig steigenden Wissensmenge fertig zu werden? Ist der Mensch in der Lage mögliche (darunter auch verdeckte und sich nur langsam entwickelnde) Katastrophen zuverlässig abzuwenden oder sich ihnen erfolgreich entgegen zu stellen? Ist der Mensch fähig seine Zukunft in Richtung Harmonie und Fortschritt zu gestalten? Ist die Menschheit in der Lage die eigentlichen Kriterien für Harmonie und Fortschritt zu erfinden (oder wieder zu entdecken). Muss man nicht sagen, dass nur dann die Menschheit von der heutigen Phase des Homo Sapiens Technologicus zur Phase des Homo Sapiens Progressus (lat.: der vernünftige, evolutionierende, sich entwickelnde Mensch) übergehen kann, wenn sie Ideale des Fortschritts und der Harmonie für sich aufstellt? Aber wie nun findet der Mensch Ideen für Erfindungen? Wie finden Menschen kreative Lösungen bei nicht-technischen Problemen? Wobei, wie der englische Philosoph Karl Popper6 schrieb, es richtiger ist die Fragen anders zu stellen: Wie entstehen gute Ideen ?! Im XX. Jahrhundert traute sich ein Mensch, der ganzen zivilisierten Welt zu sagen, dass sie nicht denken könne. Dass die Menschheit ihr intellektuelles Potential wegen einer schlechten Organisation des Denkens einfach nur verschwendet! Und, dass der Mensch nicht lernt, zu denken! Und nicht einmal vermutet wird, dass er nicht effektiv denkt! 6
Karl Raimund Popper (1902-1994) – engl. Philosoph
2 Re-Inventing – die Schlüsselkonzeption der TRIZ
3
Dieser Mensch sagte von der Idee her folgendes: heutzutage, so wie auch schon vor Tausenden von Jahren, bildet die Methode des Versuchs und Irrtums die Grundlage des Denkens. Eben die Methode eines zufälligen Erratens irgendeiner Lösung. Erfolgreich sind dabei äußerst wenige Ideen, die später dann auch meist noch verworfen werden. Dieser Mensch sagte auch: wäre es da nicht logischer von Erfolgen zu lernen! Besser noch, die Erfahrungen der besten Lösungen in Form konkreter Regeln zu verallgemeinern und eine Methodik als fertige Modelle oder sogar als Theorie zu entwickeln. Der Name dieses Menschen ist Genrich Saulowitsch Altschuller (1926-1998). In der Mitte des XX. Jahrhunderts entwickelte er in Russland die Grundlagen der „Teorija Reschenija Izobretatel'skich Zadaþ“, die von ihm TRIZ genannt wurde (russ. Abkürzung); Engl. Version: Theory of Inventive Problem Solving; deutsche Version: Theorie des erfinderischen Problemlösens. Damit eröffnete er prinzipiell neue Möglichkeiten für das Erlernen einer erfinderischen Kreativität und ihrer praktischen Anwendung. Seit Ende des XX. Jahrhunderts hat sich die TRIZ in der Welt immer mehr etabliert. Und dennoch wurde bislang kein wirklich vollständiges und gleichzeitig allgemeinverständliches Lehrbuch zu den Grundlagen der klassischen TRIZ geschrieben. Jetzt aber liegt ein solches Werk vor Ihnen. Ich hoffe, dass die TRIZ Ihnen den Weg zu neuen Möglichkeiten und Erfolgen bahnen wird!
2 Re-Inventing – die Schlüsselkonzeption des Studiums und Selbststudiums der TRIZ Das Express-Studium und Selbststudium der TRIZ verwendet unter anderem das folgende methodische Verfahren: bevor alle notwendigen Begriffe und Modelle erlernt werden, wird das praktische Funktionieren der Theorie anhand kleiner vereinfachter Beispiele so demonstriert, als wären die Grundlagen der Theorie den Lernenden bereits bekannt. Die Beispiele werden so ausgesucht und dargestellt, dass die Bewegung der Gedanken vom Einfachen zum Komplizierten und vom Äußeren zum Inneren, vom Konkreten zum Abstrakten, vom Modell zur Theorie deutlich gemacht werden kann. Mit anderen Worten, wird beim Express-Studium sofort eine Art Experiment mit den Objekten der Theorie durchgeführt. Und aus diesen Experimenten entnehmen dann die Lernenden selbst die theoretischen Schlüsselideen. Das Wesen der anfänglichen Lehrexperimente besteht in folgendem: 1. Herausstellen des Schlüsselproblems, das bei der konkreten Erfindung beseitigt wurde; 2. Definition des TRIZ Hauptnavigators, mit dem das Problem bei dieser Erfindung gelöst wurde.
4
Einleitung
Später dann werden folgende methodische Verfahren verwendet: 1. Verallgemeinerung und Klassifizierung der Modelle der Schlüsselprobleme und Hauptnavigatoren zur Lösung von Problemen beim Erfinden; 2. Herausstellen von Gesetzmäßigkeiten des Entstehens von Problemen, Prognose und die steuerbare systematische Lösung von Problemen. Die Objekte der klassischen TRIZ sind Erfindungen, technische Systeme und deren Komponenten. Der Prozess des Erfindens – das ist die Bewegung der Gedanken „vom Bestehenden, hin zum Entstehenden7“. Das ist die Konstruktion einer Gedankenbrücke zwischen dem, was ist, und dem, was sein soll. Jede „Brücke“ basiert auf einer bestimmten Theorie. Es ist klar, dass auch die „Zuverlässigkeit“ einer Brücke im Wesentlichen von der Theorie abhängt, auf dessen Basis sie erbaut wurde. Wie z.B. beim klassischen Brainstorming: wenig Regeln, praktisch uneingeschränkter Suchraum, viel Enthusiasmus und viel Lärm. Oder aber bei der klassischen TRIZ: systematische Untersuchung einer Aufgabe, steuerbare Anwendung adäquater Arten von Navigatoren für ihre Lösung, gerichtetes Voranschreiten in den Bereich der Existenz besonders gelungener Lösungen. Die Grundlage der Lehrexperimente für das Studium der TRIZ bildet ein methodisches Verfahren, dass ich „Re-Inventing“ nenne. Re-Inventing – ist eine Demonstration des Prozesses des Erfindens. Es funktioniert so, als hätten die Anwender bereits die TRIZ Prinzipien und Navigatoren der Lösung der Probleme gekannt, die bei diesen Erfindungen beseitigt wurden. Später dann, wenn die Grundlagen der Theorie bereits beherrscht werden, dient das Re-Inventing als Mittel für die Festigung von Fertigkeiten bei der Untersuchung und Lösung von Problemen. Letztlich kann ein schnelles Re-Inventing zu einer äußerst wichtigen Hilfe bei der Arbeit mit Analogien werden, die auch in unserer Software für Problemlösungen angeboten werden (s. Abschn. 21.3). Dieses methodische Verfahren stimuliert das assoziative Denken, sichert die emotionale Akzeptanz und die spätere positive Wahrnehmung der Theorie. Die Intuition der Studenten verbindet dann von selbst die bereits vorhandenen Kenntnisse und Erfahrungen mit den Schlüsselkonzepten der Theorie. Die TRIZ ist keine mathematische, quantitative, sondern eine qualitative Theorie. Formale Begriffe und Konzepte der Theorie haben den Charakter von Kategorien, Mustern und Metaphern. Aus mehreren Schritten bestehende Verfahrensweisen für die Lösung von Aufgaben nennen sich Algorithmen. Das ist auch eine Metapher, obwohl sich nachweisen lässt, dass es sich hierbei um eine eigentlich völlig korrekte Definition im Rahmen der modernen konstruktiven Mathematik handelt. Wenn von meinen Kollegen, auf der Basis des oben Erwähnten, die TRIZ als Theorie reflektiert wird, könnte man eine Definition der TRIZ als konzeptionelle, phänomenologische und letztendlich psychologische Theorie vorschlagen. 7
Ich interpretiere - verwende aber auch im direkten Kontext!- den bekannten Ausdruck und den Titel eines Werkes des Nobelpreisträgers, des belgischen Biophysikers Ilya Prigogine (1917-2003)
2 Re-Inventing – die Schlüsselkonzeption der TRIZ
5
Jedenfalls widerspiegeln die Konzepte der Theorie ihre axiomatischen und strukturellen Grundlagen (selbst wenn sie nicht speziell in wissenschaftlichen Artikeln oder Monographien beschrieben sind) nur in einer verständlicheren, nicht formalen Darstellung. Genau darum geht es. Außerdem geht es noch um den Inhalt für qualitative Modelle (Metaphern). Im Unterschied zu anderen Methoden sind die Modelle der TRIZ konstruktiv, können von den Anwendern reproduziert und unterrichtet werden. So werden wir in diesem Lehrbuch die Anwendung formalisierter Konstruktionen vermeiden. Obwohl wir für unsere Software genau solche Konstruktionen schaffen und uns auf sie stützen müssen. Unser Ziel besteht nicht in der Konstruktion formaler Grundlagen der Theorie, sondern darin, das Denken qualitativ zu modellieren und praktisch Modelle der Theorie für reale Aufgaben anzuwenden. Ungeachtet dessen bleibt die Terminologie der Theorie natürlich erhalten. Jedoch sollte man ihr nicht kritischer und misstrauischer gegenüber stehen als z. B. gegenüber Wörtern wie Aufgabe, Ausgangsdaten, Lösung, Ergebnis. In den allermeisten praktischen Situationen brauchen wir auch nicht genau zu definieren, welche Theorieaxiome und formalen Verbindungen sich hinter diesen Wörtern verstecken. Intuitiv verstehen wir voll und ganz das qualitative und inhaltliche Wesen dieser Wörter (was heißt – Metapher und Bilder) in Bezug auf bestimmte konkrete Aufgaben. Jetzt aber kommen wir zu den fundamentalen Konzepten der Theorie. Das Re-Inventing soll entsprechend der Definition folgenden Prozess aufzeigen (Abb. 2.1). Ist (das Bestehende)
Soll sein (das Entstehende)
Abb. 2.1. Bewegung der Gedanken „vom Bestehenden – zum Entstehenden”
Der Pfeil stellt hier gedankliche Operationen dar – den „Gedankenfluss“, das „Generieren von Ideen“ – entsprechend den Empfehlungen der Theorie. ReInventing im Stil des Brainstormings widerspiegelt, selbstverständlich, den Brainstorming-Prozess bei der Lösung von Aufgaben. Das TRIZ Re-Inventing widerspiegelt den TRIZ-Prozess der Lösung von Aufgaben. Was denken Sie, wie zuverlässig sind die folgenden Empfehlungen einer der Versionen der „Theorie des Brainstormings“, wie z.B. in Abb. 2.2 dargestellt?
Ist (das Bestehende)
An das Ziel denken. Ideen in 3-5 min liefern. Nicht kritisieren. Ideen anderer weiterentwickeln.
Soll sein (das Entstehende)
Abb. 2.2. Schema des Erfindens und des Re-Inventings auf der Basis des Brainstormings
6
Einleitung
Finden Sie nicht auch, dass diese Empfehlungen fast so aussehen, als wäre die gesamte Theorie von Militärschulen schon mit der ziemlich lakonischen Methode Cäsars8 erschöpft: VENI, VIDI, VICI Ich kam, sah und siegte. Glauben Sie, dass diese „Methode“ Sie lehrt, Kreativität erfordernde Probleme zu lösen? Woran denken Sie, wenn Sie weiter lesen und sehen, womit der „Gedankenstrom” beim TRIZ Re-Inventing ausgefüllt ist (Abb. 2.3)? Ist (das Bestehende)
Ideales Resultat Widerspruch Ressourcen Navigatoren-Analogien
Soll sein (das Entstehende)
Abb. 2.3. Schema des Erfindens und des Re-Inventings auf der Basis der TRIZ
Verbinden Sie nun assoziativ diese Konzepte zu einer solchen Kette: Auf der Basis vorhandener oder umgewandelter Ressourcen und unter Verwendung der Navigatoren und Analogien den Widerspruch beseitigen, der beim Erreichen des Idealen Resultats stört. Und sieht diese Kette nicht aus wie eine sicherere Brücke für den Übergang „vom Bestehenden – zum Entstehenden“?! Gewöhnlich zeige ich das Prinzip des Reinventings anhand eines einfachen Beispiels, so zu sagen anhand der „Spitze einer Feder“. Anhand des Beispiels der Entwicklung des Arbeitsorgans von mit Flüssigkeiten arbeitenden Schreibgeräten. Natürlich war die Gänsefeder mit Tinte (Abb. 2.4a) das am weitesten verbreitete Mittel für die Bewahrung und Weitergabe von Wissen im Verlauf von 2,5-3 Tausend Jahren ca. bis Ende des XVIII. Jahrhunderts, bis dann der Diener von Herrn Jansen, des damaligen Bürgermeisters der Stadt Aachen Abb. 2.4. Evolution des Flüssigkeitsschreibers: eine Metallspitze für die Gänsefea) Gänsefeder mit Tinte; b) Federhalter; der seines Herrn baute. c) Kugelschreiber; d) Faserschreiber
Danach durchliefen diese Spitzen, die auch später als Federn bezeichnet wurden, eine lange konstruktionstechnische Evolution. Jedoch blieb das Wesen des Schreibens mit der Feder unverändert: es musste die Spitze in Tinte eingetaucht werden, um damit dann auf Papier schreiben zu 8
Gaius Julius Cäsar (102 oder 100 - 44 v. Chr.) - römischer Staatsmann, Heerführer und Schriftsteller
2 Re-Inventing – die Schlüsselkonzeption der TRIZ
7
können, solange die Tinte an der Feder nicht zu Ende ging oder austrocknete. Und erst vor 100 Jahren zu Beginn des XX. Jahrhunderts begann die schnelle Entwicklung von Schreibgeräten, die zur Entstehung der ersten Füllfederhalter führte (Abb. 2.4b). Es vergingen dann noch einmal 50 Jahre bis sich der Kugelschreiber (Abb. 2.4c) schnell verbreitete. Dann 25 Jahre später, also doppelt so schnell – und das ist eine starke Beschleunigung – begann die massenhafte Verbreitung von Faserschreibern (Abb. 2.4d). Lassen Sie uns jetzt ein TRIZ Re-Inventing am Beispiel der Evolution des Flüssigkeitsschreibers nachvollziehen. Bsp. 1. Übergang 1: In 3000 Jahren von der Gänsefeder - zum Federhalter. Die Gänsefeder, auch wenn sie mit einer Metallspitze versehen war, hatte einen Hauptmangel, der darin bestand, dass die Tinte sich nicht gleichmäßig auf das Papier übertragen ließ. Sie trocknete entweder direkt an der Spitze der Feder aus, oder im Gegenteil, sie verursachte Kleckse. Die Tinte an der Spitze der Feder war schnell verbraucht, und man musste die Feder erneut akkurat in die Tinte eintauchen und sie vorsichtig so zum Blatt führen, dass kein Tropfen sich löste. Die nützliche Hauptfunktion der Feder als Arbeitsorgan des gesamten Schreibgerätes ist, eine Tintenspur auf dem Papier zu hinterlassen. Bezeichnen wir die Feder als Instrument (oder auch als – Actor oder Induktor, d.h. das, was die Handlung initiiert). Dann die Spur – das ist das Erzeugnis der Feder (oder auch – Reactor oder Rezeptor, d.h. das, was die Handlung empfängt oder aufnimmt, oder Produkt des Induktors ist. Die ideale Spur ist glatt mit der notwendigen Breite. Aber was passiert in der Feder: wenn wenig Tinte an der Feder ist, wird die Spur schnell zu dünn, und die Feder muss häufig eingetaucht werden; wenn viel Tinte an der Feder ist, kann die Spur zu dick werden oder es können Kleckse entstehen. Ein deutlicher Widerspruch zwischen „wenig“ und „viel“. Formulieren wir das ideale funktionale Modell: an der Spitze der Feder muss so viel Tinte sein, dass man eine Spur mit beliebiger Länge schaffen kann, und an der Spitze soll überhaupt keine Tinte sein, damit sie nicht austrocknen kann und keine Tropfen in Form von Klecksen fallen können! Die Anforderungen, die in einer solchen Formulierung aufgestellt werden, sind absolut unvereinbar! Aber das denn tatsächlich so? Es muss nur während des Schaffens der Spur soviel wie nötig Tinte da sein! Und da in dieser Zeit die Feder ihre Hauptoperation ausführt, nennen wir diese Zeit operative Zeit. Zu allen vorhergehenden Zeitpunkten brauchen wir keine Tinte an der Spitze der Feder! Scheint es Ihnen nicht so, als wäre der Widerspruch irgendwohin verschwunden?! Wir haben irgendwie den Widerspruch in der Zeit gelöst. Jetzt ist es folgerichtig, die aller stärkste Version des idealen funktionalen Modells zu formulieren: die Tinte gelangt von allein nur dann an die Spitze der Feder, wenn die Feder eine Spur schaffen soll. An der Spitze der Feder ist kein Platz um eine größere Menge Tinte unterzubringen, und es ist dort auch kein Platz für einen gewissen Mechanismus zur Regulierung der Tintenzufuhr. Mit anderen Worten es gibt keine ausreichenden räumlichen Ressourcen. Gibt es aber vielleicht einen freien Raum neben der Federspitze? Ja, z.B. im Hohlraum der Gänsefeder selbst oder in einem speziellen Kolben, den man am
8
Einleitung
Schreibgerät befestigen kann. Und dann muss dieser Kolben nur noch mit Tinte gefüllt und mit der Spitze der Feder durch ein Röhrchen „mit einer kleinen Absperrvorrichtung” verbunden werden. Wir können auch sagen, dass wir den Widerspruch im Raum gelöst haben: es kann sein, dass keine Tinte an der Spitze ist, aber daneben kann viel Tinte sein! Die Lösungsidee kann man auch als Auflösung des Widerspruchs in der Struktur darstellen: im ganzen Federhalter, so wie im ganzen technischen System ist viel Tinte, aber in einem kleinen Teil des Federhalters ist keine Tinte (außerhalb der operativen Zeit)! Aber wie soll man mit der Forderung umgehen, dass die Tinte von selbst an die Spitze der Feder nur dann gelangen darf, wenn eine Spur geschaffen werden soll? Formulieren wir also eine konkretisierte Version des idealen funktionalen Modells: die Feder reguliert die Menge der an die Spitze gelangenden Tinte selbst! Wir brauchen also einen Federhalter mit einer Verschlusseinrichtung! So ist es dann in der Praxis auch passiert: die Spitze der Feder wurde so gestaltet, dass sie aus zwei Teilen besteht, und zwar durch einen feinen Einschnitt (Kanal) entlang der Feder bis zu der Stelle, wo sie sich mit einer oder mehreren dünnen „Röhrchen“ verbindet, die mit einem Kolben für die Aufbewahrung von Tinte gekoppelt sind. (Abb. 2.5). Wenn der Federhalter nicht in Betrieb ist, ist der Kanal für das Durchlaufen der Tinte verschlossen, da beide Hälften der Spitze eng aneinander liegen. Wenn die Feder auf das Papier gedrückt wird, gehen die Hälften der Spitze auseinander, und Tinte fließt in den so entstehenden Abb. 2.5. Grundaufbau der Feder Kanal. Das war’s also schon. Kurz gesagt, wir haben eine ideale Lösung, ein ideales Endresultat gefunden in Form einer Spitze mit Verschlusseinrichtung. Die Energie für die Arbeit geht von der Hand aus, die auf den Federhalter drückt. Wenn wir zu schreiben beginnen, wird auf die Spitze von der Hand ein Druck übertragen – die Verschlusseinrichtung öffnet sich, und wenn kein Druck anliegt, verschließt sie sich wieder! Wir sehen hier auch eine Lösung des Widerspruchs im Stoff: um gewährleisten zu können, dass der Einschnitt der Spitze zwei Zustände haben kann (geschlossen und offen) wurden Ressourcen der Konstruktion und der inneren Energie des Materials der Feder verwendet (federnde Eigenschaften) und die Energie einer äußeren Quelle (die Ressourcen der Hand). Beim ersten Lesen scheint diese Erklärung furchtbar lang und nicht eindeutig. Sie haben recht damit, und da ist auch noch etwas anderes, was stört. Erstens, weil hier gleich mehrere neue Begriffe eingeführt wurden und zweitens, weil es für Federhalter viele technische Lösungen gibt, und jede Lösung mit verschiedenen Versionen des Re-Inventing dargestellt werden kann, die sich in der Tiefe der Analyse unterscheiden. Bald schon aber werden Sie leicht selbst automatisch ähnliche Erörterungen konstruieren, nicht nur für Lehrbeispiele, sondern auch für reale Aufgaben.
2 Re-Inventing – die Schlüsselkonzeption der TRIZ
9
Bsp. 2. Übergang 2: in 50 Jahren vom Federhalter – zum Kugelschreiber. Es ist leicht zu erkennen, dass bei der geringsten Ungenauigkeit in der Fertigung oder bei Alterung der Feder die Tinte willkürlich austreten und Kleckse verursachen kann. Genauso kann die Tinte bei Veränderungen des Luftdrucks austreten, besonders, wenn ihre Menge abnimmt. Vollständig lässt sich die Luft bei der Füllung mit Tinte nicht aus dem Kolben verdrängen und deshalb befindet sich immer ein Rest von Luft unter einem bestimmten Druck im Kolben. Wenn der äußere Druck geringer wird als der Druck der Restluft, dehnt sich die Luft im Kolben aus und drückt Tinte aus dem Federhalter. Das passierte oft in Flugzeugen. Und tat dann der Kleidung oder bestimmten Dokumenten der Passagiere oft nicht wirklich gut. Erinnern wir uns an das letzte ideale funktionale Modell, was wir vorhin für den Federhalter formuliert hatten: die Tinte gelangt selbst nur dann an das Ende der Feder, wenn sie eine Spur hinterlassen soll. Kommen wir nun zur Analyse der Ressourcen. Die Tinte ist flüssig, wie Wasser, und kann deshalb leicht aus dem Kolben über die Feder heraus fließen. Wenn die Tinte dickflüssiger wäre, würde sie nicht heraus fließen. Da aber entsteht ein neuer Widerspruch: die Tinte soll dickflüssig sein, damit sie nicht ausläuft, sie soll nicht dickflüssig sein, damit sie leicht durch das Arbeitsorgan fließen kann. Diesen starken Widerspruch werden wir in einer ersten strategischen Richtung untersuchen: Verwendung „dickflüssiger Tinte“ – weil in fast 50 Jahren keine Aussicht bestand, diesen Widerspruch mit gewöhnlicher Tinte zu beseitigen. Die Verwendung „dickflüssiger Tinte“ führt im speziellen zu der Idee irgendwelche Ventile für das Ausstoßen der Tinte einzusetzen, dann könnte man aber keineswegs mehr sagen, dass die Tinte von selbst an das Ende des Arbeitsorgans gelangt. Dann wäre es logisch, die Frage nach einer Veränderung des Arbeitsorgans selbst zu stellen. Wir brauchten eine Energieressource, die es ermöglicht „dickflüssige Tinte“ oder eine Paste auf das Papier zu übertragen. Der Einsatz eines Ventils hieße ganz deutlich eine unterbrochene Operation und eine portionsweise Übertragung der Paste. Wir brauchen aber eine ununterbrochene und gleichmäßige Übertragung der Paste. Man bräuchte irgendwelche „kleinen Menschlein“, welche die Paste aus dem Kolben nehmen und sie ununterbrochen in kleinen Portionen auf das Papier auftragen. Solche „kleinen Menschlein“ könnten zum Beispiel mit ihren „Schäufelchen” Paste aus dem Kolben nehmen und sie aneinander weitergeben in Richtung Papier, und dann in genau so einer Kette die leeren Schäufelchen zum Kolben zurückbringen. So erhalten wir eine Kreisbewegung gefüllter Schäufelchen vom Kolben zum Papier und leerer Schäufelchen vom Papier zum Kolben. Das hat Ähnlichkeit mit der Funktionsweise typographischer Maschinen, auf deren Walzen eine recht dickflüssige Druckfarbe von einer Seite der Walze gelangt und von der anderen Seite auf das Papier übertragen wird! Kann man denn nicht ein Schreibgerät bauen, das so wie eine Miniaturdruckmaschine funktioniert! Im Prinzip ist das eine durchaus konstruktive Idee!
10
Einleitung
Wir wissen nicht, ob 1938 die Erfinder des Kugelschreibers, die ungarischen Brüder Biro, der Journalist Ladislas und der Chemiker Georg so dachten, aber als erste „dickflüssige Tinte“ verwendeten sie eben solche Druckfarbe! Jedoch setzten sie anstelle einer kleinen Rolle (wie eine miniaturisierte Druckwalze) eine Kugel ein! Natürlich wäre eine Rolle zu breit, und wir wollen ja dünne Linien erhalten. Man konnte also eine Kugel verwenden, auf deren Oberfläche die „kleinen Menschlein” ihre Arbeit zur Übertragung der Farbe verrichten! Die sich drehende Kugel verwirklicht das Prinzip der ununterbrochenen Übertragung der Farbe vom Kolben auf das Papier (Abb. 2.6). Und die Kugel selbst dreht sich aufgrund der Reibung auf der Papieroberfläche! Das bedeutet auch hier ist die Hand wieder die Energiequelle, indem sie die Spitze des Schreibers, die mit einer Kugel versehen ist, auf das Papier drückt. Auf diese Art und Weise wurde die Schlüsselidee durch die Veränderung der dominierenden Ressource – des Stoffs (der Tinte) gefunden! D.h. der Hauptwiderspruch wurde im Stoff gelöst. Danach musste nur noch eine passende Konstruktion (neue Struktur) für die Übertragung der Paste auf Abb. 2.6. Grundaufbau des das Papier entwickelt werden! Und so wurde auf Arbeitsorgans des Kugelschreibers glänzende Weise der Widerspruch im Stoff und in der Struktur gelöst! Als erste verwendeten Piloten in England die neuen Schreibgeräte, jedoch dauerte es noch ca. 10 Jahre bis sich der Kugelschreiber endgültig durchsetzte. Bsp. 3. Übergang 3: In 25 Jahren vom Kugelschreiber – zum Faserschreiber. Aber auch am Kugelschreiber war noch nicht alles zufrieden stellend. Die Paste trocknete schnell ein. Manchmal wurde sie auch bei Druckveränderungen aus der Mine herausgepresst. Und so kleckste auch dieses Schreibgerät. Die Finger ermüdeten schnell, da bedeutend mehr Kraft benötigt wurde als beim Schreiben mit Tintenfederhaltern. Und an dieser Stelle wenden wir uns der zweiten strategischen Richtung zu, die für das Re-Inventing des Kugelschreibers formuliert wurde: die Tinte soll nicht dickflüssig sein, damit sie frei durch das Arbeitsorgan fließen kann. Spitzen wir den Widerspruch zu: die Tinte muss sehr „schnell fließend“ und immer an der Spitze des Arbeitsorgans vorhanden sein, aber nicht heraus fließen und keine Kleckse verursachen! Das erste, was hier deutlich wird ist, dass der Kolben, in dem die Tinte ist, von beiden Seiten offen sein muss, um Einwirkungen des atmosphärischen Drucks auszugleichen. Übrigens wurde das beim Kugelschreiber auch so gemacht! Machen wir aber erst einmal weiter! Zweitens, muss die Bewegung der Tinte aus dem Kolben an die Spitze (z.B. wieder eine Feder) des Arbeitsorgans irgendwie erschwert werden. Analogien! Gab es irgendwelche Analogien in der Geschichte der Schreibgeräte oder ähnlicher Zeichengeräte?! Offenkundig gab es sie! Untersuchungen zeigen, dass bereits vor 3300 Jahren im alten Ägypten Tintenschreibgeräte mit einem kupfernen Gehäuse verwendet wurden. In diesem Gehäuse befand sich ein angespitz-
2 Re-Inventing – die Schlüsselkonzeption der TRIZ
11
tes Röhrchen aus Blei, das im Inneren ein faseriges Schilfstäbchen hatte, das mit Tinte durchtränkt war (Abb. 2.7). Die Tinte saugte sich langsam durch die unzähligen feinen Kapillaren des Schilfstäbchens und gelangte so an das angespitzte Ende des Bleiröhrchens. Beim Schreiben auf Papyrus gelangte die Tinte aus der Spitze, dadurch entstand in den am nächsten gelegenen Fasern ein Hohlraum, in den neue Mikrodosen Tinte aus den Abb. 2.7. Grundaufbau eines Faserkapillaren eintreten konnten! Faserschreibers
Natürlich können wir heute sagen, dass bei der Erfindung von Faserschreibern 1963 in Japan die Erfinder den speziellen physikalischen Effekt der Bewegung von Flüssigkeiten in feinen Kanälen, den Kapillareffekt, ausnutzten! Dennoch ist festzustellen, dass der Schilfschreiber aus dem alten Ägypten durchaus als Vorgänger des heutigen Faserschreibers angesehen werden kann! Der Faserschreiber – bietet noch eine ausgezeichnete Lösung eines starken Widerspruchs, den wir bereits formuliert hatten, jedoch in einer anderen strategischen Richtung! Und die Lösung wurde erneut auf der Basis der Ressourcen des Stoffs und der Struktur und unter Verwendung eines speziellen physikalisch-technischen Effekts gefunden. Schließlich wollen wir uns noch einem Effekt zuwenden, der bei der Evolution eines jeden technischen Systems beobachtet werden kann. Wenn die Entwicklungsressourcen für ein System eines speziellen Typs zu Ende gehen, z.B. des Schreibgeräts, tauchen Erfindungen von Systemen mit analogem Zweck auf, die jedoch entweder ein völlig anderes Funktionsprinzip haben oder Systeme sind, die in sich zusätzliche Funktionen integrieren, die aus zwei oder mehreren völlig anderen Systemen entlehnt wurden. Extra-Beispiel. Die Ära der elektronischen Schreibgeräte. Natürlich könnten wir mit gutem Grund diesen Abschnitt mit der Untersuchung einiger paralleler Richtungen beginnen, die z.B. mit der Entwicklung von typografischen Maschinen für die Herstellung von Büchern und Zeitungen in Verbindung stehen, oder von Maschinen, die Zeichnungen auf Stoff auftragen, oder von „Schreib“Maschinen – beginnend bei mechanischen und elektromechanischen Systemen bis hin zu elektrostatischen Saiten- und Lasersystemen, von Kopiersystemen, beginnend bei Kopierpapier und Fotoapparaten bis hin zu elektrostatischen Tonerkopierern und Lasersystemen. Wir wollen jedoch nur eine Entwicklungsrichtung der Möglichkeiten der Fixierung von handschriftlichen oder grafischen Informationen untersuchen, die mit dem Erscheinen von Computern in Verbindung steht. Es geht uns dabei um die Eingabe in den Computer oder um die Übertragung zu bestimmten Kommunikationslinien von Texten und Zeichnungen, die z.B. auf einem Blatt Papier gemacht werden und unmittelbar während des Schreibprozesses, oder mit
12
Einleitung
den Worten eines Spezialisten – in Echtzeit übertragen werden. Die Aufgabe besteht in Folgendem: während des Erstellens einer Darstellung auf einem Blatt Papier muss gewährleistet werden, dass die Linien dieser Darstellung eingelesen werden, in ein digitales Format umgewandelt und diese digitalen Informationen gespeichert und zu einer Kommunikationslinie zu einem Computer oder einem anderen Informationsempfänger übertragen werden. Aber selbst diese Richtung beinhaltet eine Vielzahl von unterschiedlichen wichtigen Prinzipien des Einlesens: auf der Basis von Tablets mit elektromagnetischen, resistenten, Hohlraum-, akustischen, infraroten, optischen, Laserstrahl- und kombinierten Prinzipien der Registrierung lokaler und globaler Koordinaten der Position des Schreibgeräts im Verhältnis zum Papierblatt. In Abb. 2.8 sind einige Prinzipien des Einlesens von Informationen dargestellt, die mit speziellen elektronischen Stiften funktionieren.
a) Tablets
b)
IBM, Calcomp u.a.
d) Ultra-violetcam
POLHEMUS, u.a.
e) Touch-
c) Ultra-sonic & infrared light
HITACHI, Virtual Ink u.a.
f) Virtual Keyboard
screen
The displacement of the dots from the grid makes the paper „programmable” Ordinary paper printed with the “Anoto” pattern
Radiowaves
Prinzip
Pressure Sensor Coil Protective Glass LCD Panel
Camera Tablet Sensor Circuit Board
ANOTO
Radio Wave
SONY, Fujitsu–Siemens u.a.
SAMSUNG
Abb. 2.8. Konstruktionsprinzipien von elektronischen Stiften Das elektromagnetische Prinzip (Abb. 2.8.a) basiert auf der Bestimmung rechteckiger X-Y-Koordinaten mit Hilfe eines Systems von Leitern, die in ein Tablet integriert sind und einen elektromagnetischen Impuls empfangen, der vom
2 Re-Inventing – die Schlüsselkonzeption der TRIZ
13
Stift ausgesendet wird, der sich am Schnittpunkt der entsprechenden Leiter befindet. Die Impulse werden mit einer bestimmten Frequenz, zum Beispiel, 100Mal pro Sekunde ausgestrahlt, was ermöglicht, dass eine beliebige Linie mit einer Gruppe von Punkten (Koordinaten) dargestellt werden kann. Die Frequenz des Einlesens muss ausreichend groß sein, um eine sehr genaue Darstellung der Linien selbst bei verhältnismäßig schnellem Schreiben zu gewährleisten. Das Plus: Einfachheit und Zuverlässigkeit, die Möglichkeit des Wechsels der Blätter, die auf dem Tablet aufgelegt sind. Das Minus: Verwendung von speziellen Stiften, die Notwendigkeit der Verwendung eines Tablets, das Blatt darf nicht verschoben werden. Eine andere Variante der Benutzung elektromagnetischer Impulse finden Sie in Abb. 2.8.b. Die Informationsstrahlung vom Stift wird von Antennen empfangen, die z.B. an der Zimmerdecke in den Ecken eines Zimmers untergebracht sind und ein globales rechteckiges Koordinatensystem bilden. Das Plus: die Möglichkeit der Arbeit an einer beliebigen Stelle des Zimmers. Das Minus: die verhältnismäßig große Kompliziertheit des Systems, die Verwendung von speziellen Stiften, der Einfluss von großen metallischen Gegenständen, das Blatt darf nicht verschoben werden. Ultraschallwellen und/oder Infrarotstrahlen (Abb. 2.8.c) werden für das Messen schiefwinkliger X-Y-Koordinaten als Abstand vom Arbeitsorgan des Stifts zu zwei oder mehreren Empfängern von Ultraschall- und/oder der Infrarotstrahlungen verwendet. Das Plus: Einfachheit und Zuverlässigkeit, die Möglichkeit des Wechsels der Blätter, die auf dem Tablet aufgelegt sind. Das Minus: die Notwendigkeit der Verwendung spezieller Stifte, die Notwendigkeit der Fixierung der ablesenden Geräte auf dem Blatt, wodurch man das Blatt nicht verschieben kann. Ein völlig anderes Prinzip wird im Stift in der Abb. 2.8.d gezeigt. Eine kompakte Videokamera, die im Stift eingebaut ist und im ultravioletten Bereich arbeitet, liest spezielle Kombinationen von im Voraus auf das Papier aufgetragenen Punkten, die die Koordinaten der Position des Arbeitsorgans des Stifts auf dem Papier zum aktuellen Zeitpunkt eindeutig vorgeben. Das Plus: fast alle Komponenten sind innerhalb des Stifts integriert. Das Minus: die Anwendung eines speziellen Papiers. Die Prinzipien des Einlesens der Koordinaten auf der Basis von resistenten, Hohlraum-, Ultraschall- oder elektromagnetischen Tablets haben sich in Systemen für das Zeichnen direkt an Bildschirmen von Fernsehgeräten, von Computermonitoren, auf elektronischen Tafeln in Auditorien (Abb. 2.8.e) weiterentwickelt. Das Plus: Einfachheit und Zuverlässigkeit. Das Minus: diese Geräte sind für die Registrierung von Informationen auf Papier nicht bestimmt, obwohl man entsprechend dem Erfindungsnavigator „Entgegengesetzt“ (siehe Anlage 4 Katalog spezialisierter A-Navigatoren) vorgehen kann und die Informationen auf dem Papierträger nach Abschluss des Zeichnens z.B. mit Hilfe eines Druckers festhalten kann. Das Prinzip des Virtual Keyboard ermöglicht es, die Buchstaben einzeln aufzuzeigen und Textmitteilungen zu kreieren, zum Beispiel, SMS (Abb. 2.8.f).
14
Einleitung
Das Plus: Einfachheit. Das Minus: das ist kein handgeschriebener Text (Zeichnung) auf Papier. Wir sehen, dass der „alte“ Stift in den vergangenen Tausend Jahren seiner Entwicklung eine neue Qualität erworben hat: die Funktion der Übertragung des geschaffenen Bildes in den Computer. Wir haben gelernt, in den Computer handschriftliche Informationen einzugeben, die auf einem Papierblatt, auf einer Schultafel, am Bildschirm eines Fernsehgerätes, an einem Computermonitor, auf Kreditkarten oder auf den Displays von mobilen Telefonen, auf speziellen Tablets, die zur Tastatur hinzugefügt werden, geschrieben werden können und sowohl Tastaturen als auch Mäuse überflüssig machen. In den letzten 50 Jahren wurden Dutzende von Funktionsprinzipien für elektronische Stifte erfunden! Und doch hatten alle noch einen prinzipiellen Mangel: die Notwendigkeit der Anwendung spezieller Stifte!
Aufmerksame und interessierte Leser werden im Weiteren stets das ReInventing an allen möglichen uns umgebenden Gegenständen üben. Wählen Sie sich Objekte aus, die einen recht langen Weg der Evolution durchlaufen haben. Als Abschluss dieses Abschnitts einige grundlegende Empfehlungen für das folgende Material. Dieses Schema der Vermittlung der TRIZ hat sich anhand jahrelanger Erfahrungen des Autors herausgebildet. Im Ganzen spiegelt das Inhaltsverzeichnis des Lehrbuchs dieses Schema wider. Wichtig scheint mir jedoch an dieser Stelle darauf hinzuweisen, dass folgende drei große Punkte die Grundlage für die praktische Aneignung der TRIZ bilden: 1. Ein allgemeines Modell der Lösung schöpferischer Probleme wurde vom Autor entwickelt und heißt Meta-Algorithmus des Erfindens oder kurz MetaARIZ (Abschn. 7 und Mini-ARIZ im Abschn. 9). In Abhängigkeit von der konkreten Anzahl der Schritte des Meta-ARIZ entsteht ein bestimmendes Schema der Problemlösung entsprechend der bestimmenden „Theorie“: Brainstorming, TRIZ, CROST usw. 2. Die Schlüsselmodelle der Struktur für die Umwandlung der ursprünglichen Beschreibung des Problems in eine besser aufbereitete Form für die Anwendung der Modelle von Transformationen (Abschnitte 6-9). 3. Transformationsmodelle für ein Problem in Richtung Entwicklung einer Lösung (Abschnitte 10-13 und 18-19). Strategie und Taktik der TRIZ können nur dann richtig verstanden und angewendet werden, wenn die Schlüsselmodelle der Struktur und die grundlegenden Transformationsmodelle gut erfasst und erlernt wurden. Deshalb wird empfohlen, die Abschnitte 14-17 nur dann zu studieren, wenn die genannten Abschnitte 6-13 durchgearbeitet wurden.
Ja, Erfinden nach altem Muster ist einfacher. Den Boden mit einem Spaten umzugraben ist einfacher als einen Bagger zu steuern. Zu Fuß zu gehen ist einfacher als ein Auto zu steuern. Für die Geschwindigkeit, Stärke und Effektivität einer jeden Handlung muss man mit Wissen bezahlen. Das Erfinden bildet da keine Ausnahme. Wenn man schnell schwierige Aufgaben lösen will, muss man lernen, sich die „erfinderische Physik“ und alles andere anzueignen. Übrigens ... für die Lösung erfinderischer Aufgaben sind nicht mal so sehr neue Kenntnisse nötig, sondern eine gute Organisation der Kenntnisse, über die der Mensch schon verfügt. Die erfinderische Tätigkeit ist vielschichtig. Und dennoch ist die Lösung – die Grundlage der Grundlagen des Erfindens. Der Erfinder des XIX Jahrhunderts war ein Meister und Könner, er baute mit seinen Händen eine neue Maschine, baute sie auf alle möglichen Weisen um und fügte etwas hinzu, damit sie arbeitete. Der moderne Erfinder ist vor allem ein Denker, ein Intellektueller. Das Wichtigste sind feine und intellektuelle Operationen. Genrich Altschuller Und plötzlich erschien ein Erfinder Petrosawodsk, 1980
Methoden des Erfindens
Es lohnt sich, die Entdeckungen anderer so zu studieren, dass für uns selbst eine neue Quelle für Erfindungen entspringt... Leibniz 9
3 Erfindung 3.1 Entdeckung und Erfindung Eine der wichtigsten Erfindungen in der Geschichte der Zivilisation war das Radio (lat. radio – strahlen). 1888 entdeckte der deutsche Physiker Heinrich Hertz10 die Möglichkeit elektromagnetische Felder mit Hilfe von Enden leitfähiger Materialien unterschiedlicher Form zu empfangen und zu senden (heute würden wir diese Enden einfach als Antennen bezeichnen). Um Felder zu generieren, wurde an die Antenne Strom mit einem bestimmten Impuls, und in einer bestimmten Frequenz und Stärke, geleitet. Um dieses elektromagnetische Feld zu empfangen, musste der Strom verstärkt werden, der durch das auf sie einwirkende Feld in die Antenne geleitet wurde. Jedoch dauerte es noch mehrere Jahre von den Versuchen bis zum Entstehen technischer Ideen und Geräte, die gewisse praktische Perspektiven für diese entdeckten physikalischen Erscheinungen gehabt hätten. Zu dieser Zeit hatten technische Systeme wie der Telegraf und das Telefon schon einen bestimmten Entwicklungsstand erreicht. Bereits 1832 hatte der amerikanische Künstler und Ingenieur Samuel Morse11 ein Verfahren und Gerät zur Übertragung und zum Empfang von Signalen über Leitungen (elektrischer Telegraf) entwickelt. 1851 wurde die erste Telegrafenleitung zwischen England und Frankreich verlegt und 1858 überspannte die erste Telegrafenleitung den Atlantik zwischen England und Amerika. Zehn Jahre später vollendete der deutsche Erfinder und Unternehmer Werner von Siemens12 die Verlegung der Indoeuropäischen Telegrafenlinie London-Kalkutta. Vom ersten Gerät des 9
Gottfried Wilhelm Leibniz (1646-1716) – führender deutscher Mathematiker und Denker, gründete die Akademie der Wissenschaften (Berlin, 1700) 10 Heinrich Hertz (1857-1894) – deutscher Physiker, dem die Erzeugung und der Nachweis elektromagnetischer Wellen gelang 11 Samuel Morse (1791-1872) – amerikanischer Künstler und Ingenieur 12 Werner von Siemens (1816-1892) – deutscher Erfinder und Unternehmer
3 Erfindung
17
deutschen Lehrers Johann Reis13 aus dem Jahre 1861 durchlief das Telefon den Weg über die Patente des Amerikaners Alexander Graham Bell14. Jedoch konnte man keine Leitungen zu Schiffen oder Automobilen verlegen. Da die elektromagnetischen Wellen in den ersten Versuchen von H. Hertz sich wie das Licht von einer Punktquelle ausbreiteten, d.h. von einer sphärischen Oberfläche aus, hielt Hertz es für notwendig, zum Zweck des Sendens und des Empfangs, Antennen zu bauen, die die Form von optischen Linsen und Spiegeln haben müssten, was sich als sehr kompliziert und wenig aussichtsreich erwies. 1894 entdeckte der russische Physiker Alexander Popow15, dass die Länge der Leiterantennen Einfluss auf die Qualität von Senden und Empfang hat, und er konstruierte den ersten Radioempfänger. 1895-1897 demonstrierte er die erste schnurlose Radiotelegrafenverbindung zwischen Schiffen. Die ersten Radiosignale in den USA wurden von Nikola Tesla16 nicht später als 1893 gesendet. In den Jahren 1896-1897 ließ sich der italienische Erfinder und Unternehmer Guglielmo Marconi17 ein analoges System patentieren. Bereits 1899 konnte er seine Konstruktion so verbessern, dass eine Verbindung zwischen England und Frankreich möglich wurde und 1901 wurden die ersten Radiosignale über den Atlantik übertragen. A. Popow entdeckte als erster, dass Schiffe, die zwischen Sender und Empfänger hindurch fuhren einen Einfluss auf die Radiowellen hatten, und er entwickelte die Idee, elektromagnetische Wellen für das Auffinden von Schiffen zu verwenden (eine Art Vorstufe des Radars). Zu Beginn des XX. Jh. entwickelte Marconi seine Radiogeräte erfolgreich weiter und 1909 erhielt er und der deutsche Erfinder und Forscher Karl Braun18 (entwickelte die wichtigsten Komponenten des Radars) den Nobelpreis für Physik. So entstand vor 100 Jahren die Radiotechnik. Auf ihrer Grundlage entwickelten sich später Systeme der regionalen, globalen und kosmischen Kommunikation, die Radiotelemechanik, Radiometrie und Radionavigation, Radiolokation und Radioteleskopie (die im übrigen auch Antennen in der Form verwendet, wie sie einst Hertz beschrieben hatte). Das Fernsehen, Internet und Handys verwenden Radiosysteme. Selbst Mikrowellengeräte haben als Hauptelement einen Strahler, der ursprünglich für Radiosysteme entwickelt wurde. Dieser historische Exkurs belegt anschaulich, welcher Unterschied zwischen Entdeckungen und Erfindungen besteht (Abb. 3.1). Erfindungen, die auf der Grundlage von Entdeckungen gemacht wurden, haben in der Regel immer zu grundlegenden Veränderungen der Zivilisation geführt. So ging z.B. mit der Entdeckung von Erscheinungen der Thermodynamik und Elektrodynamik die Entwicklung der Elektroenergie und des Elektromotors einher, die Entdeckung des Elektromagnetismus führte zur Erfindung des Lasers und der 13
Johann Reis (1834-1874) – deutscher Schullehrer Alexander Graham Bell (1847-1922) – amerikanischer Physiologe, Professor der Boston University 15 Alexander Popow (1859-1905) – russischer Physiker und Erfinder, Marineoffizier 16 Nikola Tesla (1856-1943) – herausragender amerikanischer (serbischer) Erfinder und Forscher 17 Guglielmo Marconi (1874-1937) – italienischer Erfinder und Unternehmer 18 Karl Braun (1850-1918) – deutscher Erfinder und Forscher 14
18
Methoden des Erfindens
Magnetooptik, die Entdeckungen der Kernphysik führten zur Entwicklung von Atomkraftwerken; Festkörperphysik und Halbleiter brachten Rechen- und Informationssysteme hervor. Hunderte und Tausende Erfindungen entstanden und entstehen, wenn versucht wird Entdeckungen in hocheffektive technische Systeme zu überführen. Entdeckung – es werden bislang unbekannte,
Erfindung – es werden materielle Objekte entwickelt
aber objektiv existierende Objekte oder Eigenschaften von Objekten der materiellen Welt entdeckt.
oder deren Eigenschaften, die bislang auf der Welt nicht existiert haben, und aus diesem Grund auch unbekannt sind.
Abb. 3.1. Definition Entdeckung und Erfindung
Noch ein prinzipieller Unterschied zwischen Erfindung und Entdeckung besteht in folgendem: Erfindungen haben das Ziel, Anwendungsmöglichkeiten zu schaffen, die den Sinn der Erfindung ausmachen. Dieses Ziel bestimmt die nützliche Hauptfunktion eines Systems (MPF – Main Positive Funktion). So lässt sich z.B. die MPF für Radiosysteme so formulieren: Übertragung und Empfang elektromagnetischer Signale mit gesteuerten Parametern im Frequenzbereich von Radiowellen. Wollen wir nun eine Erscheinung betrachten, die Entdeckung und Erfindung einander annähert. Dabei handelt es sich um die Phantasie – den Erfindergeist eines Wissenschaftlers oder Ingenieurs. Eine Entdeckung hat kein Ziel, sie beinhaltet nur objektives Wissen. Nicht selten ist geniale Phantasie des Erfinders vonnöten, um ein Ziel und eine Idee (eine Hypothese) für die praktische Anwendung neuer Erkenntnisse, für neue technische Lösungen, die aus einer Entdeckung stammen, sich vorstellen und sehen zu können. Jedoch bedarf auch die Tätigkeit eines Wissenschaftlers genau solcher genialen Phantasie. Fast immer werden Entdeckungen von Annahmen, Hypothesen zum Wesen und zu Wechselwirkungen der beobachteten und sogar gesuchten Erscheinungen begleitet. Eine Hypothese ist eben auch eine wissenschaftlich technische Erfindung. Hypothesen, Ideen, Annahmen – all das sind Erfindungen des Verstandes – sind kreative Phantasie. Eine kreative Idee liegt nicht offen auf dem Tisch, sie ist ein Objekt, das nicht unmittelbar im vorhandenen Wissen des Menschen da ist, ein Objekt, das durch das Denken des Menschen geschaffen wird. Und genau dieser Geburtsakt einer Idee, der Akt der Erleuchtung ist eines der größten Geheimnisse des menschlichen Denkens. Das Erfinden einer Idee ist der sichtbare Gipfel, der Höhepunkt des Prozesses des Erfindens. Das Ziel einer jeden Theorie des Erfindens muss deshalb darin bestehen, praktische Wege aufzuzeigen, um diesen Gipfel besteigen zu können, den kreativen Höhepunkt zu erreichen das Erschaffen einer effektiven Idee.
3 Erfindung
19
3.2 Niveaus von Erfindungen Die Stufen der Entwicklungsgeschichte der Zivilisation – Millionen von Erfindungen – sind unterschiedlich hoch. In der Tabelle (Abb. 3.2) finden Sie eine Klassifizierung von Erfindungen ihrem Niveau nach und unter Berücksichtigung verschiedener Kennzeichen. Der Grad der Neuheit bildet hier das verallgemeinernde Moment. Aspekte des Problems
Niveaus von Erfindungen 1 Rationalisierung
Ausgangsbedingungen
Konkrete Aufgabenstellung mit einem Parameter
Ressourcen des Problems und der Person, die es löst
Ressourcen sind offensichtlich und leicht zugänglich; elementare Berufsausbildung
Schwierigkeitsgrad
Aufgaben ohne Widersprüche
Transformationsregeln
Technische Optimierungslösung
Niveau der Neuartigkeit
Geringe Veränderung der Parameter von Elementen
2 Modernisierung Aufgabenstellung mit mehreren Parametern; es bestehen strukturelle Analogien Ressourcen sind nicht offensichtlich, aber existieren innerhalb des Systems; traditionelle Berufsausbildung Standardprobleme Technische Lösung auf der Basis typisierter Analogien Originelle funktionalstrukturelle Lösungen ohne Veränderung des Funktionsprinzips
3 Prinzip Schlecht strukturierter „Haufen“ von Aufgaben; es bestehen nur funktionale Analogien Ressourcen werden oft aus anderen Systemen und Niveaus entnommen; entwickeltes kombinatorisches Denken Nicht – Standardprobleme Erfinderische Lösung durch Kombinieren von Methoden Bedeutende Erfindungen mit dem Systemeffekt – Veränderung des Funktionsprinzips
4 Synthese Viele Faktoren sind unbekannt; es bestehen keine funktionalstrukturellen Analogien Ressourcen aus verschiedenen Wissensbereichen; starkes assoziatives Denkvermögen, breites Wissen, Fähigkeit, Stereotype zu überwinden Extreme Probleme Erfinderische Lösung durch Integration technischer „Effekte“ Großartige Erfindungen mit Super-Systemeffekt einer wesentlichen Veränderung der umgebenden Systeme
5 Entdeckung Die hauptsächlichen Zielfaktoren sind unbekannt; es gibt keine Analogien Ressourcen und/oder ihre Anwendung sind vorher unbekannt; hohe Auswahlmotivation, frei von Stereotypen Einzigartige Probleme Wissenschaftlichtechnische Entdeckungen Herausragende Erfindungen mit SuperSystemeffekt einer grundlegenden Veränderung der Zivilisation
Abb. 3.2. Niveaus von Erfindungen
Die Neuheit wird hier mit dem Auftauchen einer nicht vorhersehbaren positiven Eigenschaft in einer Erfindung verbunden, einem so genannten SystemSupereffekt (im Weiteren Super-Effekt).
20
Methoden des Erfindens
Ein Super-Effekt ist ein Resultat, das vor der Erfindung nicht bekannt war und unmittelbar mit der Lösung des Widerspruchs im Ausgangssystem im Zusammenhang steht. Große Erfindungen mit Super-Effekten, welche die Zivilisation von Grund auf veränderten, werden hier mit Entdeckungen gleichgestellt. Diese Einteilung ist eine Konvention. So entsprechen die Erfindung des Telegrafen, des Telefons und Radios Erfindungen der Stufe 5. Die Entwicklung von Radio – Telefonverbindungen, zunächst für Militärflugzeuge und Schiffe, die sich im Laufe von 50 Jahren zu einem System der individuelle Kommunikation in Form des Handy entwickelt haben, lassen sich vom technischen Inhalt her zur Stufe 4 rechnen oder sogar zur Stufe 3, von der Wirkung auf die Entwicklung der Zivilisation her zur Stufe 5.
4 Erfinderische Kreativität 4.1 Erfindung der Theorien des Erfindens Die verkürzte Darstellung dieses sehr umfangreichen und wenig untersuchten Themas verfolgt trotz allem ein wichtiges Ziel – den Leser zu einer eigenen Antwort auf die Frage zu führen: kann man so die Erfahrungen der Entwicklung der Zivilisation studieren, das man daraus Methoden entnehmen, oder selbst Methoden erfinden, oder eine Theorie des Erfindens aufstellen kann? Als Orientierungspunkt für unsere Suche und unsere Überlegungen kann man folgende Gedanken von Cicero aufgreifen: NOSTRORUM MAJORUM INVENTA NOSCE DEBEMUS
Wir müssen die Erfindungen unserer Vorfahren kennen SECUNDUM NATURAM VIVERE OPORTET
Man muss im Einklang mit der Natur leben Es lassen sich zwei historische Phasen in der Entwicklung der Menschheit herausstellen: bis gegen Anfang des ersten Jahrtausends v. Chr. und von dort bis in unsere Tage. In der ersten Phase sehen wir den Homo Faber Technologicus – einen Menschen, der in der Anwendung technischer Werkzeuge geübt ist, jedoch noch über keine wissenschaftliche Methodologie verfügt. In der zweiten Phase, die schon über 3000 Jahre andauert, können wir die Entwicklung des Homo Sapiens Technologicus beobachten – eines Menschen, der eine wissenschaftliche Methodologie entwickelt und anwendet und in der Benutzung technischer Werkzeuge und Methoden geübt ist. Wo aber lag der Anfang der „Technik-Zivilisation?“ Die Antwort darauf wird wohl für immer in den Tiefen der Vergangenheit verborgen bleiben. Und nur einige Namen wie Pythagoras und Archimedes, Sokrates und Vitruvius sind bis zu uns durch das Dunkel der Geschichte vorgedrungen. Wie war die Organisation ihres Denkens? Und hätte die Zivilisation des alten Griechenlands oder Chinas Erfindungen wie das Fernsehen, den Computer, den
4 Erfinderische Kreativität
21
Audio- oder Videorecorder hervorbringen können? Hätten die Alchimisten des Mittelalters Komposite erschaffen können? Oder einen künstlichen Menschen – einen Homunkulus? Wir wissen, dass der Mensch bereits vor einigen hunderttausend Jahren seine ersten Erfindungen geschaffen hat! Es ist klar, dass die empirischen Erfahrungen der Kreativität, wenn man das so bezeichnen kann, die in der Urgesellschaft entstanden sind, verloren gingen. Sie haben sich aber dennoch im Laufe der Zeit irgendwie etabliert, so dass heute die Entdeckungen der Urgesellschaft in gewisser Hinsicht nachvollzogen aber nur sehr bedingt als methodisch begründet bezeichnen werden können. Dennoch lässt sich anhand des Wissens über diese Zeit, bei einer gewissen Interpretation und Abstraktion, feststellen, dass man folgende „Methoden des Erfindens“ benutzte: - Analogie als direkte Nachahmung: Nadeln, Schabeisen, Messer, Haken, Harpunen, angespitzte Stöcke, – all das sind Analogien zu Zähnen, Schnäbeln und Krallen von Tieren; - Analogie als Kopien des abstrakten Bildes(!): Zeichnungen, Skulpturen, Spielzeug, Theaterspiel und Theaterfiguren; - Zusammenfügen zu einem Ganzen: Speere mit Spitzen, aus Teilen bestehende Äxte und Hämmer, Netze, geflochtene Fäden aus Haar; - Zerlegen in Teile: das Zerschlagen von Steinen zur Herstellung von Schneidund Stechinstrumenten; - Veränderung der Form (z.B. des Griffs von Werkzeugen) und von Parametern: Anspitzen, Befestigen, Verlängern u.ä.; - Auswahl und Kombination verschiedener Materialien: Holz, Knochen, Steine, Felle, Baumrinden (besonders auch lange Stücke, um sie zu Netzen zu flechten und um Werkzeugteile daran zu befestigen); - Nutzung verschiedener Energiequellen: Feuer – zur Zubereitung von Speisen und zum Ausbrennen von Booten aus Holzstämmen, die Kraft der Tiere, Elastizität von Materialien, z.B. Sehnen von Tieren, biegsame Äste, geflochtene dehnbare Fäden aus Haar oder Pflanzenfasern. Diese empirischen Methoden haben sich bis heute gehalten. Man findet sie in Objekten, die in Verbindung zu physischen Tätigkeiten des Menschen stehen: bei der Herstellung von Haushaltsgeschirr und Schmuck – mit Flechtwerk versehene Vasen und Sessel, Tonkrüge und -schalen, bei sehr vielen Werkzeugen – Messern, Feilen, Äxten, Mistgabeln, Hämmern, bei der Arbeit auf dem Feld oder im Garten - Pferde oder Esel als Energiequelle zum Befördern von Lasten, bei der Nutzung von Wasser- und Windenergie (mit anderen Wirkungsprinzipien natürlich), bei Sport und Erholung – beim Speerwerfen, Stabhochsprung, Angeln, bei Bootswanderungen und künstlerischen Tätigkeiten. Die bedeutsamsten Erfindungen der Menschheit waren: - Pfeil und Bogen, und danach die Lyra und Kythara, Schalmei und Rohrpfeife (Musik im Allgemeinen!); - Das Rad (es gilt als Erfindung des Sumerischen Staates ca. 3500 Jahre v. Chr.); - Hebelmechanismen (zum Heben und Werfen); - Nutzung hoher Temperaturen und Herstellung von Metallerzeugnissen und Legierungen durch Schmelzen und Schmieden, besonders aus Bronze und Gold;
22
Methoden des Erfindens
- Nutzung der Drehbewegung bei Mühlsteinen, zur Förderung von Wasser mit Schöpfrädern, bei der Töpferscheibe, beim Bohren und seit Mitte des V. Jh. v. Chr. auch an der Drehbank; - Erfindung des Stoffs als spezielle Verbindung von Fäden aus verschiedenen Materialien zu einem künstlichen „Fell“; (heute würden wir das als Methode der Verbindung gleichartiger Objekte zu einer retikularen (netzartigen) Struktur bezeichnen); - Herstellung von Schuhen und Kleidung, Bau von künstlichen Konstruktionen zum Wohnen aus Stein und Sand, aus Holz und Knochen, aus Baumrinde und Tierfellen; - Herstellung komplizierter Mechanismen wie Zahnräder, Mechanismen mit flexiblen Verbindungen zu Hebeln und/oder Rädern; - Herstellung erster automatischer Anlagen, die sich mit Hilfe von Gewichten, die an Zylinder verschiedenen Durchmessers befestigt werden, wie sich z.B. Marionetten, mit Hilfe dehnbarer Zugschnüre drehen und bewegen lassen. Diese Aufzählung ist natürlich nicht vollständig, und wir wollen sie auch nicht ausweiten und auch nicht genauer strukturieren. Wir wollen damit nur erkennen, ob es Erfahrungen bei der Entwicklung neuer künstlicher Objekte gab, und wie sie weitergegeben wurden, Erfahrungen bei der Suche nach bestmöglichen Lösungen sowohl im Alltagsleben, als auch unter Extrembedingungen (bei Konflikten, Kriegen, Katastrophen und Krankheiten). Leider ist nur wenig über die Vermittlung erfinderischer Kreativität bis in die Gegenwart vorgedrungen. Doch es gab Beispiele. Sie lassen sich vor allem in griechischen Quellen finden, die wie durch ein Wunder erhalten geblieben und zu Beginn des zweiten Jahrtausends n. Chr. aus dem arabischen Osten nach Europa zurückgekommen sind. Sie wurden dann sogar noch durch Weisheiten aus Ägypten, dem Nahen Osten, Mittelasien und China erweitert. Pythagoras19 und seine Schule schufen eine Lehre, die großen Einfluss auf das philosophisch-humanistische und wissenschaftlich-mathematische Denken über den Aufbau und die Entwicklung der Welt hatte. Die Pythagoräer postulierten eine Sicht auf die Welt als Harmonie von Widersprüchen. Harmonie ist nur möglich als „Einheit der Unterschiede“ und „Einklang der Disharmonien“. Sie lässt sich nur definieren (tritt zu Tage oder wird postuliert), wenn eine konkrete Konfiguration von widersprüchlichen Eigenschaften in 10 messbaren Kriterien im Raum besteht, die von 10 paarigen Polen der Welt bestimmt wird: endlich – unendlich, gerade – ungerade, einzeln – mehrfach, rechts – links, weiblich – männlich, ruhend – in Bewegung, geradlinig – gekrümmt, Licht – Dunkel, gut – schlecht, quadratisch – länglich. Als einer der ersten Lehrer der Kreativität gilt Sokrates20. Er benutzte bei der Lehre und dem Lösen von Problemen seine eigene Methode, mit dem Namen Meiotik, was in der wörtlichen Übersetzung Kunst der Geburtshilfe bedeutet und 19
Pythagoras (ca. 580-500 v. Chr.) – griechischer Mathematiker, Religionsforscher und Politiker 20 Sokrates (470-399 v. Chr.) – griechischer Philosoph, Vertreter des Anthropozentrismus, einer der Begründer der Dialektik als Methode der Wahrheitsfindung (Selbsterkenntnis)
4 Erfinderische Kreativität
23
seine Lehre sehr treffend charakterisiert. Der Lieblingsspruch von Sokrates, der auf dem Giebel der Tempel des Apollo zu Delphi geschrieben steht (hier in Latein): NOSCE TE IPSUM (Erkenne Dich selbst). Mit Hilfe ironischer Fragen zwang Sokrates die Teilnehmer einer Diskussion, allgemeingültige Ansichten anzuzweifeln, in Definitionen Widersprüche zu suchen und Ideen zu synthetisieren. Das erfolgte auf der Grundlage einer strengen Bestimmung des Gegenstands der Diskussion, und mit dem Ziel, Gutes und Tugendhaftes zu erreichen und davon ausgehend, den Menschen Glück zu bringen. Sokrates verband Harmonie mit dem Prinzip der Nützlichkeit. Er lehrte, dass der Mensch nur aus eigener Kraft fähig ist, sich Wissen anzueignen. Wissen kann man nicht von außen in fertiger Form erhalten. Archimedes21 entwickelte unter anderem in seinem Werk „Lehre von den Methoden der Mechanik“ eine Methode der Ideengewinnung auf der Grundlage des Baus mechanischer Modelle und des Experimentierens an ihnen. Das sollte dem Aufstellen von Hypothesen und Vermutungen dienen, die im Anschluss einer mathematischen Überprüfung und Begründung unterzogen werden mussten. Archimedes baute für seine Schüler ein sich entwickelndes Spielzeug (heute würden wir es Puzzle oder Baukasten nennen), das aus 14 Scheiben aus Elefantenknochen bestand, die man unterschiedlich miteinander kombinieren und so verschiedene Figuren darstellen konnte, z.B. Schiff, Schwert, Helm, Tempel u.s.w. Archimedes, und auch sein Schüler Ktesibios von Alexandria22 und sein mutmaßlicher Schüler Heron von Alexandria23 waren die Begründer der Schule der Erfindungskunst (ars inveniendi). In seinem Werk „Theater der Automaten“ beschreibt Heron von Alexandria Erkenntnisse zur Konstruktion von mechanischen Automaten für Kirchen und Theater. Der Mathematiker Pappos von Alexandria24 beschrieb die späten Aussagen der Anhänger von Heron so, dass sie, nachdem sie die Theorie studiert und das Handwerk erlernt hatten, zu hervorragenden Erfindern und Konstrukteuren wurden. Das Werk von Vitruvius25 „Zehn Bücher zur Architektur“ (De architectura), diente mehr als anderthalb Tausend Jahre Vielen als Lehrbuch. In seinem zehnten Buch definierte er wahrscheinlich zum ersten Mal in der Geschichte den Begriff Maschine: eine Maschine ist die Vereinigung miteinander verbundener ... Teile, die über gewaltige Kräfte zur Fortbewegung von Lasten verfügt. Den Nutzen der Lehre technischer und „freier“ Künste, kann man vielleicht am besten anhand des berühmten Schemas von Quintilianus26 (Abb. 4.1) zur Konkretisierung einer beliebigen Aufgabe mit Hilfe von 7 Fragen beurteilen: 21
Archimedes (287-212 v. Chr.) – Mathematiker, Ingenieur, Erfinder vieler mechanischer Anlagen, Schöpfer der Lehre über den Auftrieb der Körper Ktesibius von Alexandria (II. Jh. v. Chr.) – Erfinder der Pneumatik, der Feuerspritze, (allgemein des paarigen Zylinders – Kolben), der Wasseruhr und der Orgel 23 Heron von Alexandria (II.-I. Jh. v. Chr.) – Ingenieur, Mechaniker und Optiker 24 Pappos von Alexandria (Ende des III. - Anfang des IV. Jh. n. Chr.) – Mathematiker und Mechaniker, Autor des Werks „Heuristik“, wirkte in der Kirche Mus (Museum) im ägyptischen Alexandria 25 Marcus Vitruvius Pollio (I. Jh. v. Chr.) – römischer Architekt und Ingenieur 26 Quintilianus (I. Jh. n. Chr.) – römischer Theoretiker der Rhetorik 22
24
Methoden des Erfindens
Wer?
– Quis?
Subjekt
Was?
– Quid?
Wo?
– Ubi?
1
1-2
1-3
1-4
1-5
1-6
Objekt
2
2-3
2-4
2-5
2-6
2-7
Ort
3
3-4
3-5
3-6
3-7
Womit? – Quibus auxiliis?
Mittel
4
4-5
4-6
4-7
Warum? – Cur?
Ursache o. Ziel
5
5-6
5-7
Wie?
– Quomodo?
Methode
6
6-7
Wann?
– Quando?
Zeit
7
1-7
Abb. 4.1. Die sieben Fragen des Quintilianus
Bei der Lösung erfinderischer Aufgaben sind auch paarweise kombinierte Fragen nützlich, z.B. 1-4 (Wer – Womit) - wer benutzt welche Mittel für die Lösung; 2-3 (Objekt – Ort) - welches Objekt soll wo geschaffen werden; 6-7 (Methode – Zeit) – mit welcher Methode und Wann, oder in welcher Zeit, sollte eine Aufgabe gelöst werden, usw. Diese Fragen werden heute noch in den Methodiken des Erfindens erfolgreich angewendet. Leider haben solche großen Forscher und Erfinder wie Leonardo da Vinci27 oder Galilei28, Huygens29 oder Newton30, Agricola31 oder Ramelli32 und viele – viele Andere bis in unsere Tage in ihren Werken nicht die Erfahrungen festgehalten, die sie auf dem Weg zu ihren Erfindungen gemacht haben. Den Beginn einer wissenschaftlichen Untersuchung der Methodologie der Kreativität begründeten erst die Philosophen Francis Bacon und René Descartes. In seinem Werk „Novum Organon Scientiarum“ (1620) kritisierte F. Bacon33 die alte empirische Methode in der Wissenschaft, entwickelte seine eigene neue und formulierte Ziele der Schaffung einer systematischen Technik des Erfindens. Er schrieb: „Alle die sich bisher mit Wissenschaft beschäftigt haben waren entweder Empiriker oder Dogmatiker. Die Empiriker sammeln oder benutzen geradezu ameisenähnlich nur das, was schon gesammelt wurde. Die Rationalisten machen aus sich selbst spinnenähnlich – ein Spinngewebe. Die Biene hingegen hat einen Mittelweg gefunden, sie holt sich das, was sie braucht aus den Blumen der Gärten und Felder, und sie verfügt darüber durch ihr eigenes Können ... Man sollte auf eine engere und unzerbrechliche Verbindung der Erfahrungen und des Verstandes seine Hoffnung setzen. Unsere Methode besteht darin: wir beziehen aus der Praxis nicht die Praxis und aus der Erfahrung nicht die 27
Leonardo da Vinci (1452-1519) – großer italienischer Künstler, Mechaniker und Erfinder Galileo Galilei (1564-1642) - führender italienischer Astronom und Physiker 29 Christian Huygens (1629-1695) – führender niederländischer Astronom, Physiker und Mathematiker, Schüler Galileis 30 Isaac Newton (1643-1727) – führender englischer Physiker und Mathematiker, entdeckte das Gesetz von der Schwerkraft (Gravitation) 31 Agricola (eigtl. Georg Bauer, 1494-1555) – bekannter deutscher Arzt, befaßte sich mit Mineralogie und Metallurgie 32 Augostino Ramelli (1530-1590) – Nachfolger Leonardo da Vincis, Erfinder 33 Francis Bacon (1561-1626) – englischer Philosoph, Begründer des philosophischen Empirismus 28
4 Erfinderische Kreativität
25
Erfahrung (wie die Empiriker), sondern Gründe und Axiome aus der Praxis und der Erfahrung, und aus den Gründen und Axiomen erneut Praxis und Erfahrung.“ Diese Verbindung lässt sich nach Bacon in einer induktiven Methode realisieren, im Übergang von besonderen Gegebenheiten zu besonderen Gesetzen (kleinen Axiomen), und von ihnen zu allgemeineren (mittleren Axiomen), und letztendlich zu den völlig allgemeinen. Descartes34 entwickelte die Vorstellung, eine einheitliche wissenschaftliche Methode zu schaffen, die bei ihm die Bezeichnung „universelle Mathematik“ trägt. In seinem Werk „Überlegungen zur Methode“, das 1637 also 17 Jahre nach „Organon“ erschien, entwickelte Descartes eine deduktive, rationelle Methode, die seiner Meinung nach die Erkenntnis in eine organisierte Handlung umwandelt und sie von Zufälligkeiten und subjektiven Faktoren wie Beobachtungsgabe oder Scharfsinn, Erfolg oder der Anhäufung glücklicher Umstände befreien sollte. Auf der Basis der Erkenntnis allgemeingültiger, unveränderlicher Gesetzmäßigkeiten war es so möglich mit Hilfe der deduktiven Methode, sich sein eigenes Urteil über jedes beliebige konkrete Problem zu bilden. Auch heute sind die „vier Regeln des Denkens“ von Descartes erstaunlich aktuell: Erste Regel: nichts für wahr halten, ohne es vorher genau geprüft zu haben, dass es auch zweifellos richtig ist, d.h. nicht übereilt zu handeln, Vorurteile zu vermeiden, und in sein Urteil nur das einzubeziehen, was sich dem Verstand so klar und deutlich darstellt, dass keinerlei Anlass für Zweifel besteht. Zweite Regel: jede zu betrachtende Schwierigkeit, in so viele Teile zerlegen, die man benötigt, um das Problem zu überwinden. Dritte Regel: seine Gedankengänge lenken, begonnen beim einfachsten und leicht verständlichsten Objekt, und dann aufsteigend Schritt für Schritt, wie auf einer Stufenleiter, bis zur Erkenntnis des Komplizierteren - und dabei eine Ordnung sogar der Dinge zulassen, die in der natürlichen Ordnung nicht zusammen passen. Vierte Regel: stets vollständige Aufstellungen und Übersichten anzufertigen, um sicherzugehen, dass nichts ausgelassen wurde. G. Steinbart35 war der Meinung, dass jede Erfindung auf der Grundlage bekannter, bestehender, auf dem Wege der Gegenüberstellung gewonnener Fakten, Gegenstände oder Ideen entsteht, die mit Methoden ihrer Analyse, Synthese und Kombination gewonnen werden. Als Hauptquellen der Erfindung bezeichnete er das Aufdecken versteckter Eigenschaften von Gegenständen, das Feststellen der Gründe für das Funktionieren oder die Veränderung von Dingen, das Finden von Analogien sowie die Begründung der Nützlichkeit von Gegenständen und Erscheinungen. Das Hauptwerk von J. Beckmann36 „Geschichte der Erfindungen“ ist offenbar die erste wissenschaftliche Untersuchung zu Verfahren des Erfindens: „Ich habe 34
René Descartes (1596-1650) – führender französischer Philosoph und Mathematiker Zum Werk „Gemeinnützige Anleitung des Verstandes zum regelmäßigen Selbstdenken“, 1787, des deutschen Forschers Gotthilf Samuel Steinbart (1738-1809) 36 Johann Beckmann (1739-1811) – führender deutscher „Vater“ der Wissenschaft Technologie und Neuerer in der Geschichte der Erfindungen und des Erfindungewesens 35
26
Methoden des Erfindens
ein großes Modell von der Kunst nach der berührten Invention um so lieber verfertigen lassen, um den Effekt davon in Praxi zu sehen, je mehr mich auf die Theorie gesteifet“. Eines der wichtigsten Werke ist das Buch von Bolzano37 „Wissenschaftslehre“, dessen vierter Teil „Erfindungskunst“ heißt. Für Bolzano besteht die Hauptregel in der Definition des Ziels und der Abtrennung unproduktiver Richtungen der Suche. Weiterhin wird dann die Hauptfrage der Aufgabe herausgestellt, bekanntes Wissen analysiert und Schlussfolgerungen aus diesem Wissen definiert. Danach werden Hypothesen aufgestellt und Versuche unternommen, mit verschiedenen Methoden die Aufgabe zu lösen. Dann ist eine kritische Überprüfung der eigenen und fremder Urteile vorgesehen, und die wertvollsten werden später ausgewählt. Als spezielle Regeln des Erfindens betrachtete Bolzano das Finden zusätzlicher Aufgaben, die Suche nach Analogien, Feststellung und die Bewertung des Realismus von Vorstellungen, die im Unterbewusstsein auftauchen sowie logische Denkverfahren. Ich glaube, dass die Ideen zweier weiterer großer Persönlichkeiten der Geschichte es auch verdient hätten, weitergeführt zu werden, ich denke an Leibniz und Goethe38. Bereits in seiner Jugend hatte Leibniz seine eigene Methode des Erfindens entwickelt (Ars inveniendi), hauptsächlich als Methode des Kombinierens (Ars combinatoria), und er stellte sich das Ziel, eine universelle Sprache, als logisches System zur Lösung kreativer, darunter auch erfinderischer Aufgaben zu schaffen. Er verwies auf die besondere Rolle des Verständnisses der Widersprüche in der Struktur eines Problems: die erste Wahrheit der Wahrheiten des Verstandes ist das Prinzip des Widerspruchs (Principum contradictionis). Christian Wolf39, ein Schüler von Leibniz betrachtete die Grundlagen der Methoden des Erfindens (Erfinderkunst) als sich ständig entwickelndes Wissen, als Verbindung einer erfinderischen Methodik mit stützenden Kenntnissen. Er maß dem Auffinden verdeckter Analogien und Ähnlichkeiten von Objekten große Bedeutung bei, und entwickelte die These von Leibniz weiter: Es ist nützlich die Erfindungen anderer auf solche Art zu studieren, die uns selbst eine Quelle von Erfindungen erschließt. Goethe ist die konkrete Ausarbeitung des Prinzips und der Methode der Ähnlichkeit (Morphologie) von Objekten und des Abstrahierens eines Typus zuzurechnen, was im Prinzip die Grundlage einer jeden wissenschaftlichen Klassifizierung und Systematisierung von Wissen darstellt. „... die Morphologie macht zu ihrem Hauptgegenstand, was in anderen Wissenschaften nur zufällig und nebenbei traktiert wird. Sie sammelt das, was verstreut ist, schafft einen neuen Gesichtspunkt, der es zulässt, leicht und bequem die Objekte der Natur zu betrachten“. Goethe schrieb, dass „man das Allgemeine, das sich auf der Transformation von Typen gründet“ als „Verbindung einer Vielzahl von Einheiten, die von der 37
Zum Werk „Erfindungskunst“ (in: Wissenschaftslehre, 1837), des bedeutenden tschechischen Forschers B. Bolzano 38 Johann Wolfgang von Goethe (1749-1832) – führender deutscher Denker, Dichter, Philosoph und Naturforscher 39 Christian Wolf (1679-1754) – bekannter Mechaniker und Erfinder
4 Erfinderische Kreativität
27
Idee her gleiche und ähnliche Erscheinungen sind“, sehr gut erkennen kann. (Die Markierung kursiv wurde von mir vorgenommen – M.O.). Diese Ideen wie auch die Ideen von Leibniz zur Systematisierung von Wissen zu Methoden der erfinderischen Kreativität sind bis heute nicht vollständig realisiert worden. Seit dem XVIII Jahrhundert in der Periode der ersten industriellen Revolution begann sich die Kreativität immer mehr an pragmatischen Zielen zu orientieren, und ein pragmatisches Herangehen erforderte immer mehr praktische und instrumentelle Methoden. Und obwohl es mehr Forscher gab, die sich mit erfinderischer Kreativität befassten, wurden im XVIII. und XIX. Jahrhundert derartige Methoden nicht entwickelt. Unter Berücksichtigung der kommenden Beispiele und der Definition Goethes, gründete sich die ganze Forschung auf der Beobachtung von Erscheinungen, die den Prozess der Erfindungen begleiteten, nicht aber auf der Analyse von Ideen und dem Wesen der Erfindungen – der Veränderung vom „Bestehenden zum Entstehenden“. Hermann von Helmholtz40 hat mehrfach hervorgehoben, dass Vermutungen zur Lösung kreativer Aufgaben im Ergebnis ihrer allseitigen Untersuchung entstehen, was die Möglichkeit gibt, ihre ganze Tiefe und alle Schwerpunkte gedanklich zu überblicken. Das ist meist nur bei einer ausführlichen vorbereitenden Arbeit möglich. T. Ribot41 bezeichnete die Vorstellungskraft als Hauptquelle der Erfindungen. Er lehnte prinzipiell die Möglichkeit der Schaffung einer Methodik des Erfindens ab, verwies jedoch gleichzeitig auf die große Bedeutung solcher Methoden des Erfindens, wie Analyse – Synthese und Analogien. Besonders große Bedeutung maß er der Aussage bei, dass der Mensch nur deshalb Erfindungen macht, weil er fähig ist, bekannte Ideen neu miteinander zu verbinden. Nach Ribot sind die wichtigsten Methoden des Erfindens auf der Grundlage der Vorstellungskraft entstanden: eine Personifizierung, Beseelung technischer Objekte, mystische, symbolische Vorstellungen, Metamorphose sowie die Übertragung spezieller Eigenschaften auf ein anderes Objekt. Henri Poincaré42 stellte viele interessante Vermutungen auf und lieferte interessante Bewertungen. Seiner Definition entsprechend, besteht Kreativität in der Entwicklung neuer nützlicher Kombinationen, wobei er die Meinung vertrat, dass das Denken eines Erfinders einen stark selektiven, gerichteten Charakter hat, so dass „unsinnige Kombinationen dem Erfinder gar nicht erst in den Kopf gelangen“. In dieser Beziehung betrachtet er den Erfinder als einen Prüfer in der zweiten Stufe, der nur Kandidaten befragt, die zur Prüfung erst nach bestandener erster Befragung zugelassen wurden. Weitere interessante Äußerungen machte Poincaré zur Rolle ästhetischer Kriterien bei der Kreativität. Er beschrieb den schöpferischen Prozess als einen Wechsel bewusster und unbewusster Kräfte unseres Gehirns. Er behauptete, dass Harmonie unseren ästhetischen Bedürfnissen gerecht 40
Hermann von Helmholtz (1821-1894) – bekannter deutscher Physiker, vom Studium her Arzt, einer der Entdecker des Gesetzes über die Energieerhaltung 41 Theodule Ribot (1838 – 1916) – bekannter französischer Psychologe und Kreativitätsforscher 42 Henri Poincaré (1854-1912) – bedeutender französischer Mathematiker und Astronom
28
Methoden des Erfindens
wird und gleichzeitig als Stütze des Verstands dient, und streng darauf achtet, dass nichts „Unschönes“ in einer Theorie oder Hypothese vorkommt. Der Anfang des XX. Jahrhunderts stand im Zeichen wachsender Bemühungen, eine Methodik der Kreativität zu schaffen. Wilhelm Ostwald43 stellte fest, dass man eine Methodik der Kreativität erlernen kann. Er äußerte die Hoffnung, dass die Kunst des Erfindens zu einer allgemeinen Errungenschaft, und zu einem notwendigen und alltäglichen Teil des körperlichen und geistigen Lebens würde, wie z.B. Ernährung, Lesen oder Schreiben. Erfinden kann man indem man bestimmten Prinzipien folgt, und als Beispiel führte er Edison44 an. Edison kann man wirklich als Schöpfer des ersten wissenschaftlichen Forschungsinstituts, an dem experimentelle Forschung von einer großen Anzahl parallel arbeitender Wissenschafter betrieben wurde, bezeichnen. Dieses Forschungslabor wurde von ihm 1872 in Menlow Park gegründet. In den ersten sechs Jahren seines Bestehens erhielt das Laboratorium über 600 Patente, 2 Patente pro Woche. Eine Art Fließbandsystem für Patente entwickelte A. Bell: von 1879 bis 1900 wurde in den Laboratorien seiner Gesellschaft im Durchschnitt ein Patent in 2,5 Tagen entwickelt, insgesamt waren es in dieser Zeit 3000 Patente. Ostwald stellte fest, dass sich Ende des XIX. und Anfang des XX. Jh. am Charakter der Kreativität vieles geändert hatte. Wenn man sich früher auf die Suche nach kreativen Funden, wie ein Jäger auf der Suche nach Beute in Wald und Flur begeben hat, ohne zu wissen, was man findet, oder ob man überhaupt irgendwas findet, so kann man heute diese Art von Jagd durch eine durchdachte Treibjagd (nach Edison) ersetzen, und muss kein begnadeter Jäger sein, um Beute zu machen. Man kann hier in gewisser Hinsicht die Antwort auf Joseph Priestleys45 bildliche Beschreibung der Kreativität erkennen, der die kreative Suche damit umschrieb, wie ein Jäger seine Beute im Wald sucht, wobei der Zufall eine große Rolle spielt. Priestley empfahl, unerwartete unlogische Experimente zu machen und war der Meinung, dass die mutigsten und originellsten Erfinder jene sind, die ihren Vorstellungen freien Raum lassen und die Verbindung der voneinander am weitesten entfernten Gedanken zulassen. Und obwohl viele dieser Gedanken unrealistisch seien, so können doch einige zu großartigen Entdeckungen führen. Zu Beginn des XX. Jahrhunderts verdichtet sich die Suche nach neuen Theorien, und die theoretischen Methoden selbst wurden konkreter. Diese Theorien kann man in Form eines Schemas darstellen, das bestimmte Phasen des kreativen Prozesses abbildet. Das Schema von William James46 aus dem Jahre 1905 hat folgende Form: 1) Definition des konkreten Sachverhalts S; 2) Untersuchung, ist dieses S in 43
Wilhelm Friedrich Ostwald (1853-1932) – bekannter deutscher Chemiker Thomas Alva Edison (1847-1931) – führender amerikanischer Erfinder und Unternehmer 45 Joseph Priestley (1733-1804) – bekannter englischer Philosoph und Naturforscher 46 William James (1842-1910) – führender amerikanischer Psychologe, Begründer der Theorie des „Bewusstseinsstroms“ und der Richtung des „Funktionalismus“, sowie der Richtung des „Pragmatismus“ in der Psychologie 44
4 Erfinderische Kreativität
29
irgendeiner Weise ein P, oder wie kann man aus dem S ein P erhalten; 3) Die Suche in der unendlichen Vielzahl der Aspekte eines S nach einer besonderen Eigenschaft M, die zum gewünschten P führt. Das Schema „der vollständigen Synthese“ von P. Behrens47 (1907): 1) Erstellen einer allgemeinen Konzeption des Objekts; 2) Bestimmung der Hauptkomponenten des Objekts; 3) Suche der Hauptdenkverfahren zur Auffüllung jeder Komponente; 4) Synthese aller möglichen Kombinationen (Verbindungen). Peter Engelmejer48 schrieb 1910 in seinem Werk „Theorie der Kreativität“: wenn man eine zu schaffende Erfindung wie einen sich entwickelnden Organismus betrachtet, stellen wir uns die Frage: gibt es nicht im embryonalen Prozess solche Stadien, die sich bei allen Erfindungen wiederholen, unabhängig von äußeren Umständen und Formen des Prozesses selbst? Sein Schema nannte P. Engelmejer „3-aktig“: Erster Akt: Intuition und Wunsch. Ursprung eines Gedanken. Entstehen einer Idee, einer Hypothese, des Prinzips der Erfindung, das Ziel an welchem gearbeitet werden soll. Zweiter Akt: Wissen und Schlussfolgerungen. Erstellen eines Arbeitsplans. Gedankenversuche, Experimente und eine logische Analyse werden durchgeführt, das Neue wird definiert. Dritter Akt: Sachkenntnisse. Fertigung der Erfindung. Lösung von Aufgaben der Anwendung und Nutzung. Das Schema von J. Dewey49 (1910): 1) Das Stoßen auf Schwierigkeiten, Versuche, Elemente und Beziehungen aufdecken, die zu dem Widerspruch führen; 2) Begrenzung der Zone des Suchens (Lokalisierung des Problems); 3) Das Entstehen einer möglichen Lösung: Bewegen der Gedanken fort von dem, was gegeben ist, hin zu dem was fehlt; Bildung von Ideen und Hypothesen; 4) Rationelles Bearbeiten einer Idee, logische Weiterentwicklung der Hauptaussage. Das Schema von G. Wallas50 (1926): 1) Vorbereitung; 2) Reife (Inkubation); 3) Eingebung (Erleuchtung); 4) Überprüfung. Sind diese und viele andere Modelle nur so von ungefähr entwickelt worden? Viele Wissenschaftler sind der Meinung, dass diese Schemata keine Zufallsprodukte sind, sondern dass sie in der kreativen Praxis oft zu beobachtende ähnliche Abfolgen von Handlungen widerspiegeln. Jedoch zeigt eine genauere Untersuchung der Schemata ihre wesentlichen Unterschiede. Um nicht zu sehr ins Detail zu gehen, teilen wir die bekannten Methoden in drei Gruppen51 auf.
47
Peter Behrens (1868-1940) – deutscher Architekturprofessor, ab 1907 Berater der AEG Peter Engelmejer (1855-1942) – führender russischer Forscher zur Theorie der Kreativität und Philosophie der Technik; dieses Werk wurde auf Deutsch in Berlin veröffentlicht 49 John Dewey (1859-1952) – amerikanischer Philosoph 50 Graham Wallas (1858-1932) – englischer politischer Wissenschaftler und Psychologe 51 Zitiert – leicht verändert – nach der Arbeit von A. Kudrjavtzev „Methoden einer intuit tiven Suche nach Problemlösungen“ (in Russisch), 1992 48
30
Methoden des Erfindens
Die erste Gruppe beschreibt Kreativität als ausschließlich intuitiven Prozess und umfasst die äußeren Erscheinungsformen dieses Prozesses (P. Engelmejer, G. Wallace, und davor Priestley, Helmholtz, Poincaré und viele andere), insgesamt gesehen – die meisten Autoren. Die zweite Gruppe stützt sich im wesentlichen auf einen logischen Zugang, der den Bau eines verallgemeinerten Abbildes des Objekts und das systematische Aufdecken aller möglichen Varianten seines Aufbaus beinhaltet (P. Behrens und davor Steinberg und viele Anhänger der Kombinatorik, an der Spitze dabei steht Leibniz). Das wichtigste an der dritten Gruppe ist der Versuch in das Wesen der Probleme einzudringen, Elemente und Eigenschaften herauszustellen, die zum Widerspruch führen und die Suche nach Methoden, diesen Widerspruch aufzulösen (J. Dewey, W. James und davor – Bolzano, Goethe, Leibniz, Descartes und andere maßgebliche Wissenschaftler). Und genau diese dritte Richtung wurde später nicht mehr weiterentwickelt.
4.2 Traditionelle Methoden des Erfindens In der Mitte des XX. Jahrhunderts entstanden gleich mehrere Methoden, die bis in die heutige Zeit nichts an ihrer Popularität verloren haben. Die Methode der Focal Objects – MFO gehört von ihren Wurzeln her zur antiken griechischen Kunst des Denkens, und war wohl als Gegenstück zur kombinatorischen Methode von Lullus entwickelt worden. In ihrer modernen Form wurde sie in den 20er Jahren dieses Jahrhunderts vom deutschen Psychologen F. Kuntze52 formuliert und in den 50er Jahren vom amerikanischen Forscher C. Whiting53 vervollkommnet. Das Wesen der MFO besteht darin, dass das zu verbessernde Objekt in den „Fokus“, auf den sich die Aufmerksamkeit konzentriert, gerückt wird. Danach wird dieses Objekt irgendwelchen anderen Objekten, die nach dem Zufallsprinzip aus der realen Welt ausgewählt werden, gegenübergestellt. Als Methode der Auswahl der Objekte kann ein Buch dienen, das zufällig auf einer Seite aufgeschlagen wird, und auf der dann zufällig ein Wort ausgewählt wird; es können auch irgendwelche Gegenstände aus einem Schaufenster eines Geschäftes oder Objekte aus der Natur u.ä. verwendet werden. Die Verbindung von Eigenschaften dieser beiden Objekte – des fokalen und des zufällig gewählten – kann zu originellen Ideen für die Veränderung des fokalen Objekts führen. Die Hauptmerkmale der Methode finden Sie in Abb. 4.2. Brainstorming (BS) wurde in den 40er Jahren vom ehemaligen Marineoffizier Alex Osborn54 entwickelt. Folgende Besonderheiten bilden den Unterschied zur MFO: eine vorhergehende Analyse der Situation mit Hilfe einer Liste von Kontrollfragen; das Bestehen von zwei Phasen der Arbeit – Generierung der Idee 52
Friedrich Kuntze (1881-1929) – bekannter deutscher Psychologe C.H.S. Whiting: Creative Thinking, Reinhold, New York, 1958 54 Alex Osborn (1888-1966) Autor der Methode „Brainstorming“, Unternehmensberater und Unternehmer; s. Osborn A.F. Applied imagination, Scribener’s Sons 1963 53
4 Erfinderische Kreativität
31
und Kritik der Idee. Es gibt viele unterschiedliche Varianten des BS. Die grundlegenden Eigenschaften der Methode sind in Abb. 4.3 beschrieben. Synektik (SYN). Die Methode SYN wurde von W. Gordon55 ausgearbeitet und hat genau so tiefe Wurzeln wie MFO, und steht völlig offensichtlich in Beziehung zu den Ideen von Ribot. SYN, wie auch das BS, orientiert sich mehr auf eine Realisierung im Team und eignet sich weniger für eine individuelle Anwendung (Abb. 4.4). Methode der morphologischen Analyse (ɆɆA). F. Zwicky56 entwickelte diese Methode, die vom Grundgedanken her eine Analogie zur Methode der „vollständigen Synthese“ von Behrens darstellt, und methodologisch auf die Kombinatorik von Leibniz zurückgeht (Abb. 4.5). Diese Methode ist immer noch bei der Suche nach Grenzen von Systemlösungen und der systematischen Analyse möglicher (perspektivischer) Richtungen von Problemlösungen sehr nützlich und populär. Es ist wichtig anzumerken, dass der Schwerpunkt der Methoden sich immer mehr auf die Seite der Stärkung der logischen Komponente, auf die Seite einer stärkeren Zielorientierung der Lösungssuche verlagert. Die Stärkung der logischen Komponente und die Verbindung intuitiver Modelle mit der Praxis der technischen Projektierung lassen sich gut anhand der Arbeiten vieler Forscher der 70er und 80er Jahre des XX. Jahrhunderts57 nachvollziehen. Und dennoch hat sich bei dieser Verbindung erneut fast nichts am Verhältnis zum Objekt und dem Bestand an Operationen der Transformation verändert, es wird nur eine organisatorische und systematische Ordnung der Niveaus und Etappen der Lösung komplizierter technischer Aufgaben eingeführt. Im Endresultat ver-wischt sich die beabsichtigte Zielorientierung der Methode, und die systemtechni-sche Terminologie kann wiederum nur wenig dieselbe „nackte Intuition“ verbergen. Lateral Thinking (LT) wurde entwickelt vom Psychologen und Pädagogen Eduard de Bono. LT stellt eine ausführlich ausgearbeitete Strategie der allseitigen Entwicklung kreativer Fähigkeiten von Persönlichkeiten dar. Die Methoden der Ideensuche beim LT stimulieren die Intuition und die Fähigkeit, die Lösung im Ganzen zu sehen. Diese Methoden sehen eine rationale taktische Analyse von Varianten, sowie die Betrachtung von Möglichkeiten bei der Lösung von Problemen unter verschiedenen Aspekten vor. Die Arbeiten von de Bono erweitern das Verständnis für die Möglichkeiten der intuitiven Suche nach Ideen im Vergleich, z.B. mit dem BS deutlich. Dennoch treffen auch für das LT dieselben Einschränkungen zu wie für das BS (Abb. 4.3). Neurolinguistisches Programmieren (NLP). Diese Methode lässt sich als tief greifende psycho-physiologische Stimulation der kreativen Fähigkeiten einer Persönlichkeit betrachten. 55
W.J.J. Gordon, Synectics: the development of creative capacity, Harper&Row, NY, 1961 Fritz Zwicky (1898-1974) – bekannter amerikanischer Astronom und Ingenieur, aus der Schweiz emigriert 57 s. z.B. Arbeiten des deutschen Ingenieurs Prof. J. Müller, „Methoden muß man anwenden“, 1980 und des englischen Spezialisten J.C. Jones, „Design methods“, 1982 56
Methoden des Erfindens
negativer
32
Abb. 4.2. Charakteristika der MFO
4 Erfinderische Kreativität
Abb. 4.3. Charakteristika des BS
33
34
Methoden des Erfindens
Abb. 4.4. Charakteristika der SYN
4 Erfinderische Kreativität
Abb. 4.5. Charakteristika der MMA
35
36
Methoden des Erfindens
Beim Training mit Psychologen ist es möglich Techniken zu erlernen, die es ermöglichen in einen Zustand der gesteigerten Konzentration und Aufmerksamkeit einzutreten (im speziellen lässt sich damit das schnelle Lesen erlernen, und es unterstützt das Erlernen von Fremdsprachen). NLP fördert ein freieres assoziatives Denken und die Visualisierung (Methode des Mind Mapping) sowie Aktualisierung eigener Erfahrungen bei erfolgreichen Problemlösungen, das künstlerische Eintreten in das Bild einer anderen Persönlichkeit, z.B. eines Künstlers oder Erfinders. Auch das NLP ist nicht frei von den Einschränkungen, die auch der SYN zueigen sind (Abb. 4.4).
5 Klassische TRIZ 5.1 Ideen der TRIZ Eine kurze Zusammenfassung des oben zu den Theorien der Kreativität Gesagtem könnte mit folgenden Worten von G. Altschuller [6] beschrieben werden: Vor 150 Jahren, beschleunigte sich das Entwicklungstempo der Wissenschaft sehr stark, es begann die wissenschaftliche Revolution, die zeigte, dass die Welt unbegrenzt erkennbar ist. Gleichzeitig entfaltete sich auch die technische Revolution, die den Gedanken bestätigte, dass die Welt unbegrenzt veränderbar ist. Das Arbeitsinstrument dieser gewaltigen Revolutionen ist das kreative Denken. Doch paradoxer Weise haben das kreative Denken selbst und seine Technologie keinerlei qualitative Veränderungen erfahren. Nach Abschluss der Militärakademie arbeitete G. Altschuller im Patentamt und noch 1945 stellte er fest, dass viele Patentanmeldungen ineffektive und schwache Ideen beinhalteten. Und bald schon erkannte er, dass die schwachen Lösungen die Schlüsseleigenschaften der Probleme, die im entsprechenden System entstanden waren, ignorierten. Und auch die genialsten Erfindungen waren zumeist nur Zufallsprodukte oder Ergebnisse einer Belagerung des Problems bis hin zur Erschöpfung. Die Untersuchung bekannter Methoden des Erfindens und der Psychologie führte G. Altschuller zu folgender Schlussfolgerung. Alle Erfindungsverfahren basierten auf der „Methode des Versuchs und des Irrtums“, auf Intuition und Phantasie. Keines der Erfindungsverfahren ging von einer Untersuchung der Gesetzmäßigkeiten der Entwicklung von Systemen und physikalisch-technischen Widersprüchen aus, die in dem entsprechenden Problem enthalten sind. Jedoch gab es in der Geschichte der Philosophie und in technischen Werken recht viele Beispiele einer effektiveren Analyse von Problemen. Die deutlichsten Beispiele dafür fand Altschuller in den Arbeiten von K. Marx58 und F. Engels59. Marx und Engels spielten eine bedeutende Rolle bei der Definition von Kennzeichen und Phasen historischer Veränderungen, die in der Geschichte der 58 59
Karl Marx (1818-1883) – führender deutscher Ökonom und materialistischer Philosoph Friedrich Engels (1820-1895) – führender deutscher materialistischer Philosoph
5 Klassische TRIZ
37
Menschheit abliefen und in Verbindung zu Erfindungen und Entwicklungen neuer Technologien und Maschinen stehen, die den Charakter der Arbeit des Menschen veränderten. Zu Erfindungen und Entwicklungen, die einzelne Funktionen von Technologien oder Maschinen verstärkten oder den Menschen völlig von den Produktionsoperationen verdrängten. Zwei grundlegende Ideen ziehen sich durch diese Beispiele hindurch: 1. Erfindungen erscheinen als Überwindung technischer Widersprüche; 2. Widersprüche erscheinen als Folge einer ungleichmäßigen Entwicklung einzelner Teile technischer Systeme. So führt Engels in seiner Arbeit „Zur Geschichte des gezogenen Gewehrs“ (1860) unzählige Beispiele für technische Widersprüche auf, welche die gesamte Entwicklung des Gewehrs bestimmten und sich sowohl aus veränderten Anforderungen für die Anwendung als auch aus inneren Mängeln ergaben. Der Hauptwiderspruch bestand über lange Zeit darin, dass man für ein bequemeres Laden und eine Erhöhung der Schießgeschwindigkeit den Lauf verkürzen musste (das Laden erfolgte durch das Einbringen des Schießpulvers und das Einlegen der Kugel direkt in den Lauf), andererseits musste man, um eine höhere Schießgenauigkeit zu erzielen und den Gegner im Bajonettkampf aus einer größeren Distanz treffen zu können, den Lauf verlängern. Diese Widersprüche wurden in einem Gewehr vereint, das man von der Rückseite aus laden konnte. Diese Beispiele wurden immer nur als Illustrationen zum dialektischen und historischen Materialismus betrachtet, und demzufolge wurde ihnen von den Methodologen zu wenig Aufmerksamkeit gewidmet. 1956 veröffentlichte G. Altschuller seinen ersten Artikel60 in dem er das Problem der Entwicklung einer Theorie der erfinderischen Kreativität anspricht und grundlegende Ideen für ihre Entwicklung vorschlägt: 1. Der Schlüssel zur Lösung von Problemen liegt in der Aufdeckung und Beseitigung des Systemwiderspruchs! 2. Taktiken und Methoden für die Lösung von Problemen (Erfindungsverfahren) können anhand der Analyse bedeutsamer Erfindungen aufgestellt werden. 3. Die Lösungsstrategie eines Problems muss sich auf Gesetzmäßigkeiten der Entwicklung technischer Systeme stützen. In einer neuen Redaktion kann man die erste Version einer Technologie für die Entwicklung erfinderischer Ideen in folgendem Schema darstellen (Abb. 5.1). Bis 1961 hatte G. Altschuller bereits ca. 10000 Erfindungen aus 43 Patentklassen analysiert! Die Idee, daraus Erfindungsverfahren zu entwickeln, manifestierte sich bei ihm durch folgende Entdeckung: 1. Erfinderische Aufgaben - gibt es unzählige, jedoch Typen von Systemwidersprüchen verhältnismäßig wenige. 2. Es gibt typische Systemwidersprüche und es gibt typisierte Erfindungsverfahren ihrer Beseitigung. Der Autor der entstehenden TRIZ führte aus: „… natürlich ist jede technische Aufgabe auf ihre Art individuell. In jeder Aufgabe gibt es etwas nicht Wiederhol60
G. Altschuller, R. Schapiro: Über die Psychologie der erfinderischen Kreativität. – Zeitschrift „Fragen der Psychologie“ (russ.), Moskau, 6’1956
38
Methoden des Erfindens
bares. Durch eine Analyse erscheinen Möglichkeiten, um auf den Grund vorstoßen zu können – zum Systemwiderspruch und seinen Ursachen. Und die Lage ändert sich sofort. Es ergibt sich die Möglichkeit, die kreative Suche nach einem bestimmten rationalen Schema zu führen. Es gibt zwar keine magische Formel, aber es gibt Verfahren, die in den meisten Fällen ausreichend sind“. Das Problem wie es wahrgenommen wird
ANALYTISCHES STADIUM Die Analyse der Ausgangsfragestellung; Herausstellen des Hauptkettengliedes und des Hauptwiderspruchs; Herausstellen der unmittelbaren Gründe der Existenz des Widerspruchs
Generieren einer Idee zur Lösung
Die Lösung wie sie vermutet wird
OPERATIVES STADIUM
SYNTHETISCHES STADIUM
Suche und Anwendung von Transformationen für die Beseitigung des Widerspruchs, durch Änderung der Gründe, die den Widerspruch verursachen; Stützen auf Analogien und Verfahren aus der Praxis des Erfindens
Einführung von Veränderungen in das System; in angrenzende Systeme; in Methoden der Anwendung des Systems; Überprüfen der Anwendbarkeit der Lösungsidee bei der Lösung anderer technischer Aufgaben; Bewertung der Erfindung
Abb. 5.1. Schlüsselschema der ARIZ – Algorithmus des erfinderischen Problemlösens – für die Entwicklung von Lösungen auf der Basis der Beseitigung eines Widerspruchs
5.2 Das Werden der klassischen TRIZ Mit dem Erscheinen der ersten Version der ARIZ (Abb. 5.1) begann die Entstehung der TRIZ. G. Altschuller betonte oft, dass die TRIZ das Denken so organisiert, als ob einem die Erfahrungen aller oder zumindest sehr vieler talentierter Erfinder zur Verfügung stehen. Normalerweise verwendet ein sogar sehr erfahrener Erfinder seine Erfahrungen, die auf äußeren Analogien basieren: hier, diese neue Aufgabe hat bestimmte Ähnlichkeit mit einer alten, das heißt, auch die Lösung muss so ähnlich sein. Ein Erfinder, der die TRIZ kennt, hat weit tiefere Einblicke: in dieser neuen Aufgabe gibt es so einen Widerspruch, das heißt, man kann die Lösungsideen einer alten Aufgabe nutzen, die rein äußerlich absolut keine Ähnlichkeit mit der neuen hat, jedoch einen analogen Widerspruch enthält! Der Autor der TRIZ erklärt die Unterschiede zwischen den Begriffen Erfindungsverfahren oder Verfahren, Methode und Theorie folgendermaßen. Verfahren – das ist eine einmalige, elementare Operation. Ein Verfahren kann sich auf die Aktionen eines Menschen beziehen, der eine Aufgabe löst, z.B. „Verwenden von Analogien“. Ein Verfahren kann sich auf das technische System der betrachteten Aufgabe beziehen, z.B. „Zerteilen des Systems“, „Verbinden mehrerer Systeme zu einem“. Verfahren sind irgendwie ungerichtet: es ist unbekannt, in welchem Fall dieses oder jenes Verfahren geeignet ist, und wann es
5 Klassische TRIZ
39
funktioniert. In einem Fall kann eine Analogie zur Lösung führen, in einem anderen jedoch von der Lösung wegführen. Verfahren entwickeln sich nicht, obwohl die Anzahl der Verfahren erweitert werden kann. Methode – ist ein System von Operationen, die in der Regel Verfahren beinhalten und eine bestimmte Ordnung ihrer Anwendung vorsieht. Methoden basieren meist auf einem bestimmten Prinzip, einem Postulat. So ist die Annahme, dass man die Lösung einer Aufgabe finden kann, indem „dem Gedankenfluss aus dem Unterbewussten freier Lauf gelassen wird“ die Grundlage des Brainstormings. Die Grundlage des ARIZ bildet das Prinzip der Ähnlichkeit von Widerspruchsmodellen und Modellen der Lösung von Widersprüchen. Methoden entwickeln sich in äußerst begrenztem Umfang, und verharren in den Rahmen der Ausgangsprinzipien. Theorie – ist ein System vieler Methoden und Verfahren, das eine zielgerichtete Steuerung des Lösungsprozesses einer Aufgabe auf der Grundlage von Kenntnissen der Gesetzmäßigkeiten (Modelle) der Entwicklung komplizierter Objekte in Technik und Natur vorsieht. Bis 1985, dem Jahr des Höhepunkts der Entwicklung der klassischen TRIZ, hatte sie sich bereits fast 40 Jahre gestalten können. Der Autor der TRIZ beschrieb die Entwicklung seiner Theorie folgendermaßen. Etappe 1. Die Arbeit am ARIZ wurde 1946 begonnen. Übrigens den Begriff „ARIZ“ gab es damals noch nicht. Die Fragen stellten sich da noch anders: Man muss die Erfahrungen kreativer Tätigkeit beim Erfinden studieren und Charakterzüge guter Lösungen herausstellen, die sich von schlechten unterscheiden. Schlussfolgerungen daraus, können bei der Lösung von Aufgaben beim Erfinden genutzt werden. Und sofort wurde klar, dass die Lösungen von Aufgaben beim Erfinden immer dann besonders gelungen sind, wenn sie den technischen Widerspruch (TW) überwinden, der in der gestellten Aufgabe vorhanden ist, und andererseits sind Lösungen schlecht, wenn der TW nicht herausgestellt und nicht überwunden wurde. Im Weiteren wurde dann etwas völlig Unerwartetes festgestellt: es zeigte sich, dass selbst die erfahrensten Erfinder nicht verstehen, nicht sehen, dass die richtige Taktik der Lösung von Aufgaben beim Erfinden darin bestehen muss, Schritt für Schritt den TW herauszustellen, seine Ursachen zu untersuchen und zu beseitigen, und damit den TW an sich zu beseitigen. Als Erfinder auf einen offenen, ja schreienden TW gestoßen sind, und erkannt hatten, dass mit seiner Beseitigung auch die Aufgabe gelöst wurde, hat keiner von ihnen daraus die entsprechenden Schlussfolgerungen für die Zukunft gezogen. Sie änderten die Taktik nicht und machten sich an neue Aufgaben, verschwendeten vielleicht Jahre für die Auswahl von Varianten und versuchten nicht einmal, den in der Aufgabe enthaltenen Widerspruch zu formulieren. Die Hoffnungen waren zerstört, aus den Erfahrungen großer (erfahrener und talentierter) Erfinder etwas Nützliches für Anfänger zu gewinnen: große Erfinder arbeiteten immer wieder mit derselben primitiven Methode des Versuchs und Irrtums. Etappe 2. In der zweiten Etappe stellte sich das Problem so: Es muss ein Programm zur planmäßigen Lösung von Aufgaben beim Erfinden aufgestellt werden, das für alle Erfinder taugt. Dieses Programm muss auf einer
40
Methoden des Erfindens
sukzessiven Analyse der Aufgabe basieren, um technische Widersprüche herauszustellen, zu untersuchen und zu beseitigen. Dieses Programm ersetzt zwar kein Wissen und keine Fähigkeiten, aber es bewahrt vor vielen Fehlern und liefert eine gute Taktik für die Lösung von Aufgaben beim Erfinden. Die ersten Programme (ARIZ-1956 oder ARIZ-1961) hatten nur wenig mit der ARIZ-1985 gemein, jedoch wurden sie mit jeder Modifikation genauer und zuverlässiger und nahmen immer mehr den Charakter eines algorithmischen Programms an. Es wurden Tabellen mit Verfahren für die Beseitigung von TW aufgestellt (s. Anlagen 3 A-Matrize zur Auswahl der spezialisierten Navigatoren und 4 Katalog Spezialisierter A-Navigatoren – in der Redaktion des Autors). Zur Hauptgrundlage von Forschungen wurden Patentinformationen und Beschreibungen von Erfindungen. Es wurden erste Seminare durchgeführt und Erfahrungen bei der Vermittlung des ARIZ gesammelt. Und erneut wurde etwas Unerwartetes entdeckt. Es zeigte sich, dass bei der Lösung von Aufgaben auf höherem Niveau Kenntnisse gebraucht werden, welche die Grenzen des Fachgebiets des Erfinders weit überschreiten. Praktische Versuche führen nur zu nutzlosem Probieren in gewohnter Richtung, die Anwendung des ARIZ und seiner Hilfsmittel (Verfahren u.ä.) verbesserte auch nur den Verlauf der Lösung. Es wurde festgestellt, dass der Mensch nicht in der Lage ist, Aufgaben beim Erfinden auf höherem Niveau effektiv zu lösen. Deshalb sind alle Methoden, die nur darauf abzielen, das „kreative Denken“ des Menschen zu aktivieren falsch, da das ja nur Versuche sind, schlechtes Denken gut zu organisieren (kursiv, hier wörtlich Genrich Altschuller). Und so begann die zweite Etappe damit, dass der Gedanke entwickelt wurde, dem Erfinder ein Hilfsinstrument zur Verfügung zu stellen, und sie endete mit der Erkenntnis, dass es notwendig ist, die erfinderische Kreativität umzugestalten, und dabei die Technologie des Erfindens selbst zu verändern. Das Programm wurde jetzt als vom Menschen unabhängiges selbstständiges System zur Lösung von Aufgaben beim Erfinden betrachtet. Das Denken muss diesem System folgen, sich davon steuern lassen – dann kann es durchaus weitaus talentierter werden. Es wurde klar, dass Operationen aus dem ARIZ, objektiven Gesetzmäßigkeiten der Entwicklung technischer Systeme gegenüber gestellt werden müssen. Etappe 3. Die Formel der dritten Etappe lautete folgendermaßen: Erfindungen auf unterem Niveau sind ganz und gar nicht kreativ. Erfindungen auf höherem Niveau, die mit der Methode des Versuchs und Irrtums gemacht wurden – das ist schlechte Kreativität. Man braucht eine neue Technologie zur Lösung von Aufgaben beim Erfinden, die es ermöglicht, planmäßig Aufgaben auf höherem Niveau zu lösen. Diese Technologie muss auf der Kenntnis objektiver Gesetzmäßigkeiten der Entwicklung technischer Systeme beruhen. Wie auch in der zweiten Etappe, bildeten Patentinformationen die Arbeitsgrundlage. Doch wurden sie jetzt nicht mehr nur unter dem Gesichtspunkt untersucht, neue Erfindungsverfahren aufzustellen und sie in die Tabelle für die Beseitigung technischer Widersprüche aufzunehmen, sondern sie dienten der Untersuchung allgemeiner Gesetzmäßigkeiten der Entwicklung technischer Systeme.
5 Klassische TRIZ
41
Das Wichtigste, was entdeckt wurde war, dass eine Erfindung die Weiterentwicklung eines technischen Systems ist. Eine Aufgabe für das Erfinden ist nur eine Form, in welcher der Mensch die Anforderungen an die Entwicklung eines technischen Systems aufdeckt. Die TRIZ vermittelt einfach nur eine erfinderische Kreativität mit dem Ziel, effektive Methoden zur Lösung von Aufgaben beim Erfinden zu kreieren. In dieser Definition ist ein Gedanke verborgen, der vielleicht ketzerisch klingen mag: sind denn alle bestehenden „Methoden“ schlecht und müssen verworfen werden? Mit diesen „Methoden“ haben doch Menschen große Erfindungen gemacht! Auf diesen „Methoden“ basiert die moderne Erfindungsindustrie, die jährlich Tausende neue technische Ideen liefert. Was ist schlecht an den aktuellen „Methoden“? Es gibt die üblichen, aber unwahren Beurteilungen der Kreativität beim Erfinden, wie z.B.: 1. „Alles hängt vom Zufall ab“, – sagt der Eine. 2. „Alles hängt von Wissen und Beharrlichkeit ab, man muss immer wieder verschiedene Varianten ausprobieren“, – behauptet der Zweite. 3. „Alles hängt von angeborenen Fähigkeiten ab“, – stellt wiederum der Dritte fest. In all diesen Äußerungen liegt natürlich ein Fünkchen Wahrheit, jedoch ist diese Wahrheit nur äußerlich und oberflächlich. Die Methode des „Versuchs und Irrtums“ ist an sich uneffektiv. Die moderne „Erfindungsindustrie“ ist aber leider genau nach der „Methode von Edison“ organisiert: je schwieriger eine Aufgabe ist, desto mehr Versuche müssen unternommen werden und desto mehr Menschen müssen an der Lösungssuche teilnehmen. Diese Kritik daran wurde von Genrich Altschuller folgendermaßen bekräftigt: es ist klar, wenn Tausend Menschen auch noch so unterschiedliche Gruben ausheben, bleibt das Prinzip des Grabens immer dasselbe. Mit Hilfe einer guten Methode arbeitet ein einzelner Erfinder, eben ein Schatzgräber, viel effektiver als ein „Team von Erdarbeitern“! Bei der Lösung von Aufgaben ohne die TRIZ wählt ein Erfinder zunächst lange zwischen gewohnten, traditionellen Varianten, die unmittelbar mit seinem Fachgebiet zu tun haben. Und oft gelingt es ihm überhaupt nicht, diese Varianten hinter sich zu lassen. Die Ideen gehen dann in Richtung des „Vektors der psychologischen Trägheit“ (PIV – Psychological inertia vector). Der PIV kann alle möglichen Gründe haben: einerseits gibt es die Furcht davor, seinen Berufszweig zu verlassen und sich auf fremdes Gebiet zu begeben, und andererseits besteht die Angst davor, eine Idee zu haben, die vielleicht lächerlich wirken kann. Ein anderer Grund liegt natürlich darin, dass der Erfinder nicht mit Erfindungsverfahren für das Generieren „wilder“ Ideen vertraut ist. Der Autor der TRIZ hat die „Methode von Versuch und Irrtum“ im folgenden Schema dargestellt (Abb. 5.2). Vom Punkt „Aufgabe“ ausgehend muss der Erfinder zum Punkt „Lösung“ gelangen. Aber wo sich dieser Punkt genau befindet, das ist vorher nicht bekannt. Ein Erfinder schafft sich eine bestimmte Suchkonzeption (SK) und fängt an, seine Gedanken in die ausgewählte Richtung zu „werfen“ (diese Richtungen sind mit dünnen Pfeilen gekennzeichnet). Und dann wird klar, dass die ganze SK nicht richtig war, und dass die Suche in eine völlig falsche
42
Methoden des Erfindens
Richtung geht. Der Erfinder kehrt dann zum Ausgangspunkt der Aufgabenstellung zurück, entwickelt eine neue SK und beginnt erneut mit „Würfen“ vom Typ „was wäre, wenn?“.
SK4
SK 5 PIV
SK 3
SK 6
SK 2 SK 7 SK 1 Aufgabe
SK 8
Lösung
Abb. 5.2. Suchschema mit der „Methode von Versuch und Irrtum“
Im Schema sind die Pfeile, die nicht in Richtung Lösung führen oder sogar der Lösung entgegengesetzt sind, dichter gestreut. Das liegt darin, dass die Versuche lange nicht so chaotisch sind, wie es im ersten Moment aussieht. Sie sind sogar ziemlich organisiert ... in Richtung altbekannter Erfahrungen! Eben in die Richtung des PIV! Aufgaben unterschiedlichen Niveaus unterscheiden sich wesentlich durch die Anzahl der Versuche, die benötigt werden, um die Lösung zu finden. Aber warum braucht man für die eine Aufgabe 10 Versuche, für die andere 100, und für eine weitere - 10000?! Worin besteht der qualitative Unterschied zwischen ihnen? Und G. Altschuller kommt zu folgendem Schluss (s. auch Abschn. 3.2 Niveaus von Erfindungen). 1. Aufgaben können sich nach dem Inhalt der geforderten Kenntnisse unterscheiden. Auf dem ersten Niveau bewegen sich Aufgaben und deren Mittel zur Lösung in den Grenzen eines Berufs (eines Bereichs des Berufszweiges). Auf dem zweiten Niveau – in den Grenzen eines Berufszweiges (z.B. wird eine Aufgabe für den Maschinenbau mit bereits aus anderen Bereichen des Maschinenbaus bekannten Mittel gelöst). Auf dem dritten Niveau – in den Grenzen einer Wissenschaft (z.B. wird eine mechanische Aufgabe auf der Grundlage der Gesetze der Mechanik gelöst). Auf dem vierten Niveau – außerhalb der Grenzen einer Wissenschaft, welche die „Aufgabenstellerin“ ist (z.B. wird eine mechanische Aufgabe
5 Klassische TRIZ
43
chemisch gelöst). Auf den höchsten Stufen, vor dem fünften Niveau liegen sie völlig außerhalb der Grenzen der modernen Wissenschaften (aus diesem Grund müssen neue wissenschaftliche Erkenntnisse gewonnen oder Entdeckungen gemacht und dann bei der Lösung von Aufgaben beim Erfinden angewendet werden). 2. Aufgaben können sich unterscheiden nach: der Struktur der wechselwirkenden Faktoren. Das lässt sich gut durch den Unterschied der „Strukturen“ von Aufgaben z.B. des ersten und vierten Niveaus demonstrieren. Für Aufgaben des ersten Niveaus ist Folgendes charakteristisch: 1. Geringe Anzahl wechselwirkender Elemente. 2. Es gibt keine unbekannten Faktoren, oder sie sind unwesentlich. 3. Unkomplizierte Analyse: - die Elemente, welche verändert werden können, lassen sich leicht von Elementen trennen, die unter den Bedingungen der Aufgabe nicht verändert werden können; - Wechselwirkungen der Elemente und mögliche Veränderungen sind leicht nachzuvollziehen. 4. Ein gewisses Handikap entsteht dann, wenn eine Aufgabe in sehr kurzer Zeit gelöst werden muss. Für Aufgaben des vierten Niveaus ist folgendes charakteristisch: 1. Große Anzahl zu berücksichtigender Elemente. 2. Viele unbekannte Faktoren. 3. Kompliziertheit der Analyse: - es ist schwer, Elemente zu sondieren, die unter den Bedingungen der Aufgabe verändert werden können; - es ist schwer, ein ausreichend vollständiges Modell der Wechselwirkung von Elementen und möglicher Veränderungen zu konstruieren. 4. Die Sache wird in gewisser Hinsicht dadurch leichter, dass für die Suche relativ viel Zeit zur Verfügung steht. 3. Aufgaben können sich nach dem Grad der Veränderung eines Objekts unterscheiden. In Aufgaben des ersten Niveaus wird ein Objekt praktisch nicht verändert, z.B. wird der Wert eines Parameters umgestellt. Auf dem zweiten Niveau wird ein Objekt nur unwesentlich verändert, z.B. nur in einigen Details. Auf dem dritten Niveau wird ein Objekt wesentlich verändert (z.B. an den wichtigsten Teilen), auf dem vierten wird es vollständig verändert, und auf dem fünften wird auch das technische System verändert, zu dem das veränderte Objekt gehört. Aus diesem Grund braucht man einen Denknavigator der „Überführung“ und damit einen Denknavigator, mit dem „schwierige“ Aufgaben in „leichte“ umgewandelt werden, z.B. durch eine schnelle Einengung des Suchfeldes. 4. Die Natur hat keine heuristischen Denknavigatoren höherer Ordnung entwickelt! Im Verlaufe der gesamten Evolution hat sich das Gehirn des Menschen nur an die Lösung von Aufgaben, die dem ersten Niveau entsprechen, angepasst. Selbst wenn ein Mensch vielleicht ein bis zwei Erfindungen auf höchstem Niveau in seinem Leben macht, schafft er es dennoch nicht, seine „hohen
44
Methoden des Erfindens
heuristischen Erfahrungen“ zu sammeln und weiterzugeben. Als natürliche Auswahl haben sich nur heuristische Verfahren auf niedrigem Niveau festgesetzt: vergrößern – verkleinern, verbinden – trennen, Analogien verwenden, kopieren und einige andere (s. Abschn. 4 Erfinderische Kreativität). Später dann wurden schon bewusst andere hinzugefügt, wie: „Stelle Dich an den Platz des untersuchten Objekts“ (Empathie), „Denke an psychologische Barrieren“ u.a. (s. a. Abschn. Kunst des Erfindens). „Heuristik“ auf diesem Niveau kann man jungen Ingenieuren noch so oft demonstrieren, sie werden es dennoch nie erlernen, sie anwenden zu können! Der Punkt ist, dass noch so viele Aufrufe, doch „an psychologische Barrieren zu denken“, zum Scheitern verurteilt sind, da der Mensch gar nicht weiß, wie er gegen psychologische Barrieren kämpfen kann. Nutzlos bleiben auch Ratschläge, doch Analogien zu verwenden, wenn vorher nicht bekannt ist, welche Analogie denn passen könnte, und besonders dann, wenn es viele Analogien gibt. Genau so ist es bei der Empathie, sie verwirrt nur, und ist sogar kontraproduktiv, wenn es sich um ein kompliziertes Objekt handelt. Unser Gehirn hat im Verlaufe seiner Evolution nur genaue und verwendbare Verfahren erlernt, die der Lösung einfacher Aufgaben dienen können. Heuristische Mechanismen wurden dabei nicht entdeckt – es gibt sie einfach nicht. Jedoch können und müssen sie geschaffen werden! Kommen wir zur dritten Etappe und zur Mitte der 1970er Jahre, die auch die zeitliche Mitte der Geschichte der klassischen TRIZ repräsentiert. Es war auch der Beginn einer grundlegenden Vervollkommnung der TRIZ – die Entdeckung des physikalischen Widerspruchs (PW) und der fundamentalen Prinzipien für die Lösung von PW, die Formulierung von Gesetzen der Entwicklung technischer Systeme, die Zusammenstellung des ersten Katalogs physikalischer Prinzipien für die Entwicklung großer Erfindungen („Effekte“) und der ersten „Standards“ (komplexer Navigatoren). 5.3 Struktur der klassischen TRIZ Bei der Untersuchung der Entwicklungsgeschichte der TRIZ lassen sich folgende Etappen herausstellen: 1) bis 1985 – die Entwicklung der klassischen TRIZ, grundlegende Ideen mit konzeptionellem Charakter (zusätzlich aber auch instrumentellem), die von Genrich Altschuller veröffentlicht wurden; 2) nach 1985 – die Entwicklung der post-klassischen TRIZ, grundlegende Ideen der „Entfaltung“ der Theorie (d.h. detaillierte Darstellung, partielle Formalisierung, Konkretisierung und speziell eine große Beispielsammlung) und der Verbindung mit anderen Methoden, besonders mit Methoden der FunktionsKostenanalyse und Methoden analog zu Quality Function Deployment (QFD) und Fault Modes and Effects Analysis (FMEA). Die Struktur der klassischen TRIZ ist im Schema Abb. 5.3 dargestellt. Die TRIZ ist ein Beispiel für die Realisierung der Idee der konzentrierten Darstellung des Wissens.
Abb. 5.3. Strukturelle Organisation der TRIZ
45
veröffentlichten
Operative Zone / Zeit;
5 Klassische TRIZ
46
Methoden des Erfindens
Die wichtigste Entdeckung der TRIZ besteht darin, dass eine Million bereits registrierter Erfindungen auf der Basis einer verhältnismäßig geringen Anzahl von Transformationen der ursprünglichen Aufgabenstellung gemacht wurden. Hierbei wird in der TRIZ deutlich auf die konzeptionellen Schlüsselkomponenten der Organisation eines beliebigen Problems und der Synthese der Lösung hingewiesen: Widerspruch, Ressourcen, ideales Resultat, Regeln, oder besser gesagt, Transformationsmodelle. Des Weiteren wurden in der TRIZ nicht nur einige Systeme von Erfindungsverfahren aufgestellt, sondern auch die Lösungsmethode für Probleme schrittweise mit Hilfe einer Konkretisierung und Transformation der ursprünglichen Problemstellung formuliert. Diese Methode wird als „Algorithmus zur Lösung erfinderischer Aufgaben“ (ARIZ) bezeichnet. In Form der TRIZ gelang es zum ersten mal in der Geschichte der schöpferisch tätigen Menschheit eine Theorie, Methoden und Modelle für die systematische Untersuchung und Lösung komplizierter technisch-technologischer Probleme zu entwickeln, Probleme mit starken physikalisch-technischen Widersprüchen, die mit traditionellen Methoden der Konstruktion im Prinzip nicht zu lösen sind. Der ARIZ (und die gesamte TRIZ) steht nach einer bildhaften Definition von Altschuller „auf drei Grundsäulen“ [5]: 1. Nach einem genauen Programm, Schritt für Schritt, wird die Aufgabe bearbeitet; der physikalische Widerspruch, der die Aufgabe zum Problem macht, wird erkannt und untersucht. 2. Für die Beseitigung des Widerspruchs verwendet man konzentrierte Informationen, welche die Erfahrungen mehrerer Generationen von Erfindern in sich verkörpern (die Tabellen der typischen Aufgabenmodelle – Verfahren und Standards, Tabellen für die Anwendung physikalischer Effekte usw.). 3. Im Verlaufe der gesamten Lösungssuche gibt es eine Art psychologische Anleitung: der ARIZ steuert das Denken des Erfinders, beseitigt psychologische Hemmnisse, und führt sie zu ungewöhnlichen und mutigen Ideen. Außerdem sollte festgestellt werden, dass sich die meisten Bücher und Artikel zur TRIZ bis zum heutigen Tag meist nur gegenseitig wiederholen und den Wert der TRIZ traditionell nur als Lösungssystem für technische Aufgaben zeigen. Das führte oft zu Missverständnissen über die Möglichkeiten und Grenzen der TRIZ. Vor allem aber verschweigen die bekannten Publikationen die Existenz vieler ungelöster Fragen des „Funktionierens“ schöpferischen Denkens, so z.B. die in einem großen Umfang prinzipielle Notwendigkeit unterschiedlichster intuitiver Denkakte. Sie verschweigen auch, dass man eine Lösung nicht errechnen kann, und verwenden überall die Termini „Algorithmus des Erfindens“ und „Transformations-operator“. Deshalb kommen unterschiedliche Personen, welche die empfohlene Methodik verwenden, bei weitem nicht zu gleichen Ergebnissen. Sie sprechen nicht über die unbestimmte (wenn auch wesentlich verkürzte) Dauer der Lösungssuche anhand des Algorithmus, was wiederum daran liegt, dass es auch prinzipiell nicht algorithmisierbare Denkakte gibt. Letztendlich, in dem Fall, dass bei der Lösung eines Problems die objektiven Kenntnisse nicht ausreichen und wissenschaftliche Untersuchungen durchgeführt
5 Klassische TRIZ
47
werden müssen, stößt auch hier die TRIZ an die Grenzen ihrer Möglichkeiten. Jedoch lässt sich noch hinzufügen, dass die TRIZ auch ein nützliches Instrument für die Durchführung wissenschaftlicher Untersuchungen ist. Dieses Lehrbuch zeigt ein breit gefasstes und realistisches Herangehen des Autors an die Theorie des Erfindens, das die hocheffektiven Modelle der TRIZ nicht den bewährten Methoden der intuitiven Suche gegenüberstellt, sondern versucht, sie zu integrieren. Am Ende dieses Abschnitts möchten wir ein Schema, das die Etappen der Entwicklung der TRIZ (Abb. 5.4) widerspiegelt zeigen. Praktikum für die Abschnitte 3 – 5 1. Das Porträt von Lauten61. In einigen Höhlen mit Zeichnungen von Tieren, die bereits vor mehr als 100000 Jahren gemacht wurden, kann man auch heute noch nicht nur die Zeichnungen erkennen, sondern zur gleichen Zeit auch die Geräu-sche des Laufs dieser Tiere oder der ganzen Herde hören! Wie hat der „Urmensch“ für seine Nachfahren das Portrait der Geräusche „gezeichnet“? Übrigens konnte er auf ähnliche Art und Weise mit den Darstellungen seiner Vorfahren und mit Wesen aus der Mythologie „sprechen“. 2. Der Leuchtturm von Alexandria. Das zweite der Weltwunder nach den ägyptischen Pyramiden - der Leuchtturm von Alexandria. Der Legende nach hatte der Imperator befohlen auf dem fertig gestellten Leuchtturm seinen Namen und nicht den des Erbauers zu verewigen. Der Baumeister sollte hingerichtet werden, wenn er es nicht täte. Der Baumeister blieb am Leben, doch die Nachwelt erkennt seinen Namen. Wie hat der Baumeister diesen Widerspruch gelöst? 3. Das Rätsel der Pyramiden. Beim Bau der ägyptischen Pyramiden: a) wie ist es den Erbauern gelungen streng horizontale geradlinige Fundamente für die Pyramiden zu bauen, besonders dann, wenn man berücksichtigt, dass die Flächen einiger Fundamente mehrere Hektar betragen. b) Wie konnte die Höhe der zu bauenden Pyramiden gemessen werden? c) Wie konnte die strenge Symmetrie der Pyramiden gewährleistet werden? d) Wie konnten die identischen Neigungswinkel der Kanten der Pyramiden von 42° und dementsprechend die Neigung von 51°-52° der Katheten der Seiten der Pyramide erreicht werden? 4. Der Botschafter Ismenius. Der Griechische Botschafter Ismenius kam an den Hof des Persischen Königs Artaxerxes I. Der stolze Botschafter wollte sich nicht verneigen, doch sich nicht zu verneigen wäre auch nicht möglich gewesen, weil dann die Verhandlungen gar nicht erst stattgefunden hätten. Was machte Ismenius als er sich dem Thron des Königs näherte.
61
In diesem Abschnitt und ferner sind für die Vorbereitung einiger Aufgaben populäre TRIZ-Beispiele verwendet worden.
Methoden des Erfindens
mehrere Hundert Tausend Anhänger und Anwender
Effekte
48
Abb. 5.4. Entwicklungsschema der TRIZ
5 Klassische TRIZ
49
5. Die Krönung der Imperatoren. Im Jahre 800 n. Chr. fand die Krönung Karl des Großen statt. Dem Brauch nach musste der Papst Karl dem Großen die Krone aufsetzen, was für die Festigung der politischen Macht unumgänglich gewesen wäre. Doch der Herrscher wollte sich nicht unter den Papst stellen, da es auch Brauch war, dass der Papst die Krone ihm aufsetzen, sie ihm jedoch wieder wegnehmen konnte. Und der Papst erhebt nun feierlich die Krone in Richtung des Kopfes des Herrschers... Wie löste Karl der Große die widersprüchliche Situation? 1000 Jahre später, als im Dezember 1804 in der Kirche Notre Dame in Paris Papst Pius der VII. die Krönung Napoleon Bonapartes vornahm, geschah das gleiche wie auf der Krönung Karls des Großen. 6. Der Turm von Pisa. Auf Wettbewerben zur Rettung des schiefen Turms von Pisa gab es in den letzten 60 Jahren mehr als 9000 Vorschläge aus der ganzen Welt! 200 Jahre nach seinem Baubeginn 1173 wurde festgestellt, dass der Turm sich neigen würde. 1370 wurde als Gegengewicht eine 8. Etage angebaut. Die Höhe des Turms erreichte jetzt fast 60 Meter, und das Gewicht betrug 14453 Tonnen. In den folgenden 600 Jahren senkte sich das Fundament des Turms um fast 3 Meter in den Boden und die Abweichung der 7. Etage von der Vertikalen betrug 4,47 Meter (Abb. 5.5). 1990 wurde der Turm für Besucher geschlossen. 1993 erstellte man eine Modellierung und Prognose der künftigen Neigung des Turms. Eine Expertise sagte aus, dass der Turm nicht länger als bis 2050 stehen würde und sich mit einer Geschwindigkeit von 1 mm pro Jahr neigt. 1999 eröffnete der Bürgermeister von Pisa, Fontanelli, die letzte Ausstellung der Projekte „Viva la torre!“ (Es lebe der Turm!). 2000 verringerte sich 4,47 m die Neigung des Turms auf 4,07 m, d.h. um 40 cm. Das bedeutete, dass der Turm auch in 300 Jahren nicht seinen kritischen Neigungswinkel erreicht. Vielleicht können ja bald schon wieder Abb. 5.5. Neigung des Turms Besucher die 293 Stufen auf seiner Wendeltreppe von Pisa zur Spitze des Turms beschreiten. Drei Fragen: 1. Was könnten Sie vorschlagen, um die Gefahr zu beseitigen, dass der Turm von Pisa zerstört wird, ohne dabei seinen historischen und ästhetischen Wert zu mindern? 2. Wie wurde die kritische Neigung des Turms beseitigt? 3. Warum kann man den Turm nicht ganz und gar aufrichten?
A-Studio: algorithmische Navigation des Denkens
Für die effektive Lösung von Aufgaben beim Erfinden auf höherem Niveau bedarf es eines heuristischen Programms, das die stets neue Auswahl von Varianten durch ein zielgerichtetes Vordringen in den Bereich der Lösung ersetzt. Genrich Altschuller
6 Von der Praxis zur Theorie 6.1 A-Navigation des Denkens Beginnen wir jetzt, uns mit den Grundlagen der TRIZ vertraut zu machen. Die klassische TRIZ steht auf einem starken praktischen Fundament. Dieses Fundament sind Patente, Millionen von Patenten, in denen reale Lösungen und Erfindungsverfahren für Probleme und die Erfahrung von Millionen von Erfindern akkumuliert sind. Und das war die bahnbrechende Entdeckung Genrich Altschullers, eben unmittelbar die objektiven Informationen, die in Erfindungen stecken, zu untersuchen. Die zweite Entdeckung war die Definition des Inhalts und der Ziele notwendiger Untersuchungen, auf welchen eine arbeitsfähige Theorie aufgebaut sein sollte: 1. In jedem technischen System, das im Patent verbessert wurde, müssen das gelöste Schlüsselproblem gefunden, die Gründe und Struktur dieses Problems herausgestellt und invariante Elemente (beständige Kennzeichen) realer Prob-leme definiert werden. 2. Aus jedem Patent, besonders aus Patenten, die von hohem Wert sind, müssen die Schlüsseltransformationen extrahiert werden, die bei diesem Patent den Übergang von der Aufgabenstellung zur Lösungsidee bestimmen. Diese Transformationen müssen klassifiziert und systematisiert werden. Es muss bewertet werden, wie häufig sie auftreten und inwieweit sie effektiv sind. 3. Es muss auch herausgestellt werden, wie man in neuen Situationen passende Transformationen finden kann, um sie als Muster oder Modell für die Suche nach Lösungen konkret für jede neue Aufgabe verwenden zu können. Die Untersuchung von derzeit mehr als 2,5 Mio. Patenten beweist die Richtigkeit der Strategie, die vom Begründer der TRIZ gewählt wurde.
6 Von der Praxis zur Theorie
51
Im Ergebnis dessen wurden der TRIZ folgende drei praktische Entdeckungen zu Grunde gelegt: 1. Alle realen Probleme können auf nur drei verschiedene Arten reduziert und demzufolge in nur drei Strukturmodellen dargestellt werden: Administratives Problem – die Problemsituation wird in Form eines Hinweises auf die Mängel, die beseitigt werden oder der Ziele die erreicht werden sollen, beschrieben. Dabei wird auf Gründe für das Entstehen der Mängel und auf Verfahren für deren Beseitigung und das Erreichen der vorgegebenen Ziele nicht verwiesen; Technisches Problem – die Problemsituation wird in Form eines Hinweises auf die unvereinbaren Funktionen oder Funktionseigenschaften des Systems beschrieben, von denen eine der Funktionen (oder Eigenschaft) dem Erreichen der nützlichen Hauptfunktion des gesamten Systems dient (dem Zweck des Systems), und die zweite ihm entgegenwirkt; Physikalisches Problem – die Problemsituation wird in Form eines Hinweises auf die physikalische Eigenschaft eines Elements oder des gesamten Systems beschrieben, wobei der eine Wert dieser Eigenschaft für das Erreichen der einen bestimmten Funktion des Systems notwendig ist und der andere Wert für eine andere. Dabei gelten jedoch beide Werte als unvereinbar und verfügen über einander ausschließende gegensätzlich ausgerichtete Tendenzen ihrer Verbesserung. Für jedes Problem wurde vom Verfasser der TRIZ ein genaues funktionales Strukturmodell in Form von administrativen, technischen und physikalischen Widersprüchen aufgestellt, die in den folgenden Abschnitten untersucht werden. Die konstruktivsten Modelle dabei sind die Modelle technischer und physikalischer Widersprüche, da ihre Lösungen unmittelbar von den TRIZ-Instrumenten unterstützt werden. Administrative Modelle lassen sich entweder mit Methoden lösen, die keine direkte Beziehung zur TRIZ haben, z.B. mit ökonomischen Methoden oder durch zusätzliche wissenschaftliche Untersuchungen, oder aber sie müssen in eines der anderen beiden konstruktiven Modelle überführt werden. 2. Alle bekannten Lösungen wurden auf der Grundlage von Transformationen gefunden, die zu nur vier Klassen gehören: - direkte Modelle für die Lösung physikalischer Widersprüche (in der TRIZ – Prinzipien, ich nenne sie fundamentale Transformationen); - direkte Modelle für die Lösung technischer Widersprüche (spezialisierte Transformationen oder „Verfahren“ in der TRIZ); - Empfehlungen für die Veränderung physikalisch-technischer Modelle in Form einer Wechselwirkung „Feld-Stoff“ (komplexe Transformationen, oder „Standards“ in der TRIZ); - Empfehlungen zur Realisierung der notwendigen Funktion auf der Basis von Beispielen für Standard- oder Originalanwendungen von bekannten oder aber auch neueren physikalisch-technischen Erscheinungen (Basistransformationen, oder Effekte). Jedes Modell steht als Beispiel für die Lösung eines Problems durch eine Erfindung in allgemeiner Form in einer bestimmten Klasse von Modellen und für eine bestimmte Situation.
52
A-Studio: algorithmische Navigation des Denkens
3. Auf der Basis des Re-Inventings Hunderttausender Erfindungen wurde in der TRIZ eine Abfolge von Schritten für die rationale Untersuchung der Ausgangssituation bei einem Problem, für die Konstruktion eines Problemmodells und die Auswahl eines passenden Transformationsmodells, und auch für die Überprüfung der Richtigkeit der vorgeschlagenen Lösungen aufgestellt. Diese aus mehreren Schritten bestehende Schemata durchliefen einen langen Weg der Vervollkommnung und praktischen Anwendung. 1985 wurden sie von Genrich Altschuller in einem Schema unter der Bezeichnung „Algorithmus des erfinderischen Problemlösens – 1985“, oder abgekürzt ARIZ-1985 zusammengefasst. Der ARIZ-1985 ist eine Art komprimierter Extrakt der gesamten TRIZ. Er ist wegen der großen Zahl kommentierender Erklärungen, Anmerkungen und Exkurse schwer zu erlernen. Und genau das war der Grund dafür, dass der Autor des vorliegenden Lehrbuchs 1987 begann, ein kompakteres Schema zu entwickeln, das wegen seiner starken Verallgemeinerung die Bezeichnung „MetaAlgorithmus des Erfindens“ erhielt. Der Begriff „Algorithmus des Erfindens“ selbst stößt bis heute oft auf Kritik. Die Kritiker argumentieren damit, dass es in der bekanntesten Definition eines Algorithmus, die für die Programmierung von Computern der ersten Generation entwickelt wurde, keinen Platz für Unbestimmtheiten gibt. Das ist jedoch eine zu enge Definition selbst schon für die moderne Computermathematik, die mit Begriffen unscharfer, wahrscheinlicher, iterativer, rekurrierender oder noch komplizierterer Algorithmen operiert. Vom Standpunkt der modernen konstruktiven Mathematik, sowie der mathematischen Linguistik, die mit Modellen von Kategorien und Funktoren, mit Affinitäts- und komplizierteren Darstellungen operiert, ist die Verwendung des Terminus „Algorithmus“ bereits vollkommen korrekt. Wenn wir uns auf diese Argumentation stützen, können wir folgenden logischen Schritt machen: wir definieren das Hauptziel der klassischen TRIZ als Gewährleistung einer „algorithmischen Navigation des Denkens“. Es ist zweckmäßig diesen Begriff mit der Bezeichnung „A-Navigation“ zu verbinden, der im Symbol „A“ den algorithmischen Charakter der Unterstützung des Lösungsprozesses bei komplizierten Problemen widerspiegelt aber auch dem Verfasser der TRIZ – Genrich Altschuller gerecht wird. Die A-Navigation und davon abgeleitete Begriffe bewahren das Andenken an den Begründer der TRIZ. Was den Begriff „Denken“ betrifft, der in die Definition mit aufgenommen wurde, so, kann man ihn, um keine Missverständnisse und Diskussionen hervorzurufen, enger gefasst verstehen, nämlich als erfinderisches Denken oder das Denken bei der Lösung von Problemen beim Erfinden. Und ein Problem beim Erfinden kann man hier vereinfacht als Aufgabe definieren, die unvereinbare Anforderungen und einen „unlösbaren Widerspruch“ enthält. Der Begriff „Navigation“ scheint uns sehr genau und äußerst wertvoll zu sein. Der Mensch denkt in Bildern, Metaphern und verwendet ein spezielles Transformationsmodell, als Beispiel kommen hier Schablonen in Frage, Analoga für die Entwicklung einer Lösung anhand von Assoziationen mit Analogien. Dabei reichert der Mensch das Modell mit konkreten Inhalten aus der neuen Aufgabe an, und das Modell führt sein Denken in Richtung Ziel. Verallgemeinerte Transformationsmodelle und illustrierende Beispiele dafür spielen die Rolle von Navigatoren
6 Von der Praxis zur Theorie
53
des Denkens oder Navigatoren des Erfindens, oder wie wir sie bezeichnen, ANavigatoren. Eigentlich bedeutet „Navigation“ sowohl Messung der Lage des beweglichen Objekts und möglicherweise des beweglichen Ziels, als auch die Gestaltung des Wegs zum Ziel. Und genau dafür ist der ARIZ und seine A-Navigatoren bestimmt (A-Algorithmus)! Der A-Algorithmus spielt die Rolle eines echten Navigations-systems, das die Analyse der Aufgabe und die Anwendung der ANavigatoren vorsieht (der Navigationsinstrumente - „Karten“, „Instruktionen“, „Lineale“, „Schablonen“, „Kompasse“, „Zirkel“ u.ä.) für die Gestaltung des Wegs zum Ziel – der Entwicklung einer effektiven Lösung! Der Erfolg einer Anwendung des A-Algorithmus und der A-Navigatoren hängt natürlich auch vom „Kapitän“, „Steuermann“ oder den „Lotsen“ ab, welche die Bewegung steuern, d.h. von konkreten Personen, die Kreativität erfordernde Aufgaben lösen. Das gesamte theoretische und praktische Instrumentarium der TRIZ lässt sich in drei hierarchische Niveaus untergliedern (Abb. 6.1). Festzustellen ist, dass streng genommen, diesen Niveaus auch die drei Problemarten entsprechen: administrative, technische und physikalische. Dennoch werden wir alle ANavigatoren bedingt als Instrumente des operativen Niveaus betrachten. Das hat deshalb seine Berechtigung, weil diese Instrumente selbst dann verwendet werden, wenn noch nicht alles auf dem taktischen und strategischen Niveau gelöst wurde. Dabei helfen Versuche mit Probeoperationen bei Aufgaben, um deren Eigenschaften sowohl für die taktische als auch strategische Steuerung besser zu verstehen.
Anwendung der TRIZ Physikalische Probleme
Strategisches Niveau Auswahl der Entwicklungsrichtungen des Systems
Administrative Probleme
Taktisches Niveau Auswahl des Schlüsselproblems
Technische Probleme
Operatives Niveau Definition und Lösung des physikalischtechnischen Problems
Studium der TRIZ
Abb. 6.1. Prozesse der Anwendung und des Studiums der TRIZ
Die in Abb. 6.1. so empfohlene Ordnung für das Studium des Instrumentariums der klassischen TRIZ wurde aufgrund folgender Vorteile aufgestellt: 1. Die Methoden des operativen Niveaus beruhen in höchstem Maße auf der Praxis, und deshalb ermöglicht deren erstrangige Aneignung eine schnellere Anwendung der TRIZ-Instrumente für die Lösung praktischer Aufgaben (zunächst natürlich relativ einfacher).
54
A-Studio: algorithmische Navigation des Denkens
2. Die Kenntnisse über die operativen Niveaus dienen als Grundlage für das Verständnis der Ideen und Methoden höherer Niveaus. Da ja das Studium vom Einfacheren und Praktischen zum Komplizierteren und Abstrakten verläuft. 3. Beim darauf folgenden Studium des taktischen und strategischen Niveaus anhand praktischer Beispiele werden noch mehr die Fertigkeiten vertieft, das operative Instrumentarium anzuwenden. 4. Und schließlich ist das operative Niveau sehr präzise und umfangreich ausgearbeitet, was die Überzeugung von der Konstruktivität und Effektivität der TRIZ insgesamt bestärkt. Die A-Navigatoren ermöglichen es, nicht weniger als 80 % aller in der Praxis vorkommender Aufgaben zu lösen. Diese Modelle wurden durch Extraktion aus so genannten „Standardaufgaben“ erhalten, die auch ca. 80 % des Patentbestands der Welt ausmachen. Es sollte aber hier bemerkt werden, dass der Begriff „Standardcharakter“ einer Aufgabe nicht bedeutet, dass diese Aufgabe eine offensichtliche und leicht zu findende Lösung hat. Es geht hier nur darum, dass bei Untersuchungen (Re-Inventing) festgestellt wurde, dass für die Lösung solcher Aufgaben die Anwendung von nur ein bis zwei „klassischen“ Verfahren der TRIZ ausreichend war. Natürlich wurden diese Aufgaben ohne das Wissen der TRIZ gelöst, und wahrscheinlich wurde für die Lösungssuche eine Menge Zeit und Kraft aufgewendet. Nur bei einem Re-Inventing zu Lehr- oder Forschungszwecken kann man leicht erkennen, mit welcher Methode diese oder jene Aufgabe hätte gelöst werden können. Die „Rekonstruktion“ des Lösungsprozesses bei der Untersuchung von „Standardaufgaben“ wird vor allem deshalb leichter, da aus Patentbeschreibungen eine konkrete Lösung bekannt ist und die Kennzeichen der dort realisierten Transformationen ausreichend deutlich zu erkennen sind! In einer neuen konkreten Situation ist es nicht einfach zu erkennen, ob die entstandene Aufgabe mit relativ einfachen „Standardverfahren“ zu lösen ist. Andererseits ist das aber gar nicht so wichtig, da es in jeder beliebigen Situation völlig logisch ist, zunächst zu probieren, einfachere „Standardtransformationen“ anzuwenden! Zur Definition des Schwierigkeitsgrades einer Aufgabe kehren wir noch einmal in den Abschnitten über die taktischen und strategischen Modelle der TRIZ zurück. 6.2 A-Navigatoren des Erfindens In diesem Abschnitt haben Sie die Möglichkeit, in 30 Minuten den gesamten Weg, den die TRIZ in 45 Jahren ihrer Entwicklung durchlaufen hat, nachzuvollziehen. Wir werden gemeinsam einige A-Navigatoren aufbauen! Wir führen ReInventings bei 9 Beispielen technischer Lösungen durch und werden sehen, wie die A-Navigatoren definiert wurden. Wichtig ist hier anzumerken, dass die von uns ausgewählten Beispiele durch andere ersetzt werden könnten. Jedoch wäre auch bei der Auswahl einer ausreichenden Anzahl von Beispielen das Ergebnis des Re-Inventings genau dasselbe, welches auch mit der TRIZ erzielt wurde.
6 Von der Praxis zur Theorie
55
Achtung: bevor Sie nicht die jetzt folgenden Beispiele kennen gelernt haben, sollten Sie noch nicht in den Abschnitt Klassische Navigatoren des Erfindens des A-Studios sehen, es würde Sie nur verwirren. Und machen Sie vielleicht hier noch einmal eine Pause, um selbst über folgende Fragen nachzudenken: Welche Gemeinsamkeiten können Sie in folgenden Erfindungen entdecken: Flugzeuge mit vertikalem Start und vertikaler Landung, Schutz für Häuser bei Hochwasser, die an Flüssen stehen oder die Pflege von Weinstöcken? Oder in solchen Erfindungen, wie ein Hebekran für Autos, die „Kinderüberraschung“ und Rohrleitungen für die Beseitigung von Bauschutt aus oberen Etagen bei der Renovierung von Häusern? In welchem Zusammenhang stehen das Verfahren zum Schutz von dekorativen Palmen vor Wärme, das Verfahren von Erdgas in Ballons und das Verfahren zur Herstellung von Schokoladenfläschchen mit Likör? Könnten in all diesen Gruppen von Erfindungen gewisse gemeinsame Ideen vorhanden sein, könnte ein prinzipiell einheitliches Modell herausgestellt, verallgemeinert und infolge als ein kreatives Verfahren angewendet werden? Das Re-Inventing nach der TRIZ bejaht diese Frage. 6.2.1 Aufbau eines speziellen A-Navigators Nr. 7 (Anlage 4) Bsp. 4 (Aufgabe). „Heckstarter“ – Flugzeug mit vertikalem Start und Landung. Diese Flugzeuge haben den Vorteil, dass sie keinen Start- und Landeplatz benötigen. In den ersten Modellen dieser Flugzeuge wurden der Start und die Landung in vertikaler Lage des Flugzeugkörpers (Abb. 6.2) durchgeführt. Der Pilot lag dabei in seinem Sessel auf dem Rücken und konnte nur nach oben sehen. Beim Start war das noch erträglich, jedoch war die Landung auf dem Heck des Flugzeugs wegen der Schwierigkeiten bei der visuellen Kontrolle und Steuerung äußerst gefährlich. Und so gab es in dieser Situation Funktionen oder Eigenschaften, die miteinander im Konflikt standen, wenn es darauf ankam, die nützliche Hauptfunktion des Systems zu erfüllen. Konkret: die vertikale Lage des Abb. 6.2. Steuerung bei den ersten Flugzeugrumpfs entspricht der Richtung Modellen von Flugzeugen mit von Start-Landung, ist aber bei der Steuevertikalem Start und Landung rung ungünstig. Man kann das Modell der Situation in Form des folgenden Widerspruchs festhalten: Funktion: vertikaler Start und Landung; erfordert (Plus-Faktor): eine vertikale Lage des Flugzeugrumpfs; dabei wird schlechter (Minus-Faktor): visuelle Kontrolle und Steuerung. Bsp. 5 (Aufgabe). Haus am Fluss. 1994 wurde in den USA eine Idee zum Schutz von Häusern bei Hochwasser, die in der Nähe von Flüssen gebaut wurden, zum
56
A-Studio: algorithmische Navigation des Denkens
Patent angemeldet. In Abb. 6.3.b wird die Situation dargestellt, wo das Wasser dem Haus bedeutenden Schaden zufügen kann. In diesem Beispiel bestehen Anforderungen, die miteinander in einem starken Konflikt stehen: das Haus soll in der Nähe des Wassers sein (auf Wunsch des Hausbesitzers) bei normalen Umweltbedingungen und das Haus soll weit vom Wasser entfernt sein (?!) bei Überschwemmungen. Die zweite Bedingung kommt uns recht phantastisch und märchenhaft vor, aber auf keinen Fall technisch. Dennoch widerspiegelt sie recht gut den physikalischen Inhalt der Bedingungen für die Sicherheit des Hauses bei Überschwemmungen.
a)
b)
Abb. 6.3. Haus am Fluss bei normalen Bedingungen (a) und bei Überschwemmung (b)
Man kann ein Modell dieser Situation in folgendem Widerspruch darstellen: Objekt: Haus soll sein: in der Nähe des Flusses (unter normalen Bedingungen); soll nicht sein: in der Nähe des Flusses (bei Überschwemmung). Anscheinend schließen diese Forderungen einander aus. Bsp. 6 (Aufgabe). Weinstock. Um im Winter die Schäden an Weinstöcken durch Frost zu verringern, werden die Weinstöcke von den Haltedrähten am Spalier abgenommen und an den Boden gelegt und dort mit Klammern (Abb. 6.4) befestigt. Stellen wir uns die Frage, wie der Arbeitsaufwand hierbei verringert werden kann?
a)
b)
Abb. 6.4. Weinstock im Sommer (a) und im Winter (b)
In dieser Frage sieht man auf dem ersten Blick keinen Widerspruch. Und das bedeutet genau, dass wir es hier mit einem deutlichen administrativen Widerspruch zu tun haben: es gibt die Absicht, das System zu verbessern, es wird aber nicht darauf hingewiesen, was dabei stört, das gestellte Ziel zu erreichen. Formulieren wir das Modell der Aufgabe in Form folgender Variante eines Widerspruchs: Funktion: Legen des Weinstocks auf den Boden;
6 Von der Praxis zur Theorie
57
hat den Plus-Faktor: Verluste durch Frostschäden werden verringert (geringe Beschädigung der Rinde durch Frost); hat den Minus-Faktor: es entstehen Zeitverluste und Arbeitsaufwand bei dieser Operation. Man kann für dieselbe Aufgabe auch ein umgekehrtes Modell formulieren: Funktion: Belassen der Weinstöcke an den Spalieren; hat den Plus-Faktor: kein Zeitverlust und Arbeitsaufwand für diese Operation; hat den Minus-Faktor: es entstehen Verluste an den Weinstöcken (starke Beschädigung der Rinde bei Frost). Man kann sehen, dass diese Modelle in Form von Widersprüchen die Möglichkeit bieten, genauer zu definieren, in welcher Richtung die Lösung gesucht werden muss, und was die Lösungssuche einschränken kann. Sehen wir uns jetzt die bekannten patentierten Lösungsideen an. Bsp. 4 (Lösung). „Heckstarter“ – Flugzeug mit vertikalem Start und Landung. Im Patentbestand gibt es nicht wenige Ideen für die Lösung der gestellten Aufgabe. Alle diese Lösungen haben das Hauptziel erreicht: eine normale Lage des Piloten bei Start und Landung beizubehalten und dabei das geforderte Sicherheitsniveau zu gewährleisten. Gab es aber etwas Gemeinsames in all diesen Ideen? Ich denke schon: die Einführung eines beweglichen Teils in das System – drehbare Flügel, drehbare Motoren u.ä. Bei Start und Landung können z.B. die Motoren vertikal ausgerichtet werden, wie in Zeichnung 6.5, a. Beim Flug selbst dann drehen sich die Flügel in eine horizontale Position (Abb. 6.5, b). Dabei bleibt der Rumpf des Flugzeugs relativ gesehen unbeweglich, horizontal ausgerichtet, sowohl beim Start als auch bei der Landung, und so hat der Pilot normale Bedingungen für Beobachtungen und Steuerung.
a) b) Abb. 6.5. Flugzeug mit vertikalem Start/Landung bei horizontalem Flug (a) und beim Start (b)
Bsp. 5 (Lösung). Haus am Fluss. Die Schlüsselidee der patentierten Lösung (Abb. 6.6) besteht darin – das Haus wurde beweglich gestaltet! Diese Lösung realisiert streng beide Teile des formulierten Widerspruchs! Bei Hochwasser schwimmt das Haus, da der unterirdische Teil des Hauses in Form eines hermetisch abgeschlossenen Pontons gebaut ist, der mit einer schwimmfähigen Flüssigkeit gefüllt ist, z.B. mit Phenoplast. Beachten Sie bitte dabei, dass das Wasser selbst das Haus bewegt und es auf ein Niveau anhebt, auf dem keine Gefahr besteht. Das Haus selbst wird von beweglichen teleskopischen Pfeilern gehalten. Für ein langfristiges Funktionieren kann das Haus mit Vorräten an Lebensmitteln, Wasser und einer Energiequelle wie Diesel für einen Stromgenerator ausgestattet werden.
58
A-Studio: algorithmische Navigation des Denkens
Bsp. 6 (Lösung). Weinstock. Ich gehe davon aus, dass die Leser bereits anhand der eben aufgeführten Beispiele erraten haben, dass hier ein Verfahren verwendet wurde, was auch für die zwei vorigen Lösungen zutrifft! Vor dem Winter werden die Weinstöcke nicht vom Spalier genommen, sondern das ganze Spalier wird auf den Boden gelegt. Dazu wird das Spalier unten mit Scharnieren versehen (Abb. 6.7). Das heißt, auch hier war der Schlüssel für die Lösung des Problems eine Dynamisierung, die bewegliche Gestaltung eines Objekts. Auf diese Art wurde aus völlig unterschiedlichen Problemen und deren Lösungen ein und die selbe Schlüsselidee entnommen, ein und die selbe Lösungsmethode, die als spezielles Erfindungsverfahren bezeichnet werden kann. In der TRIZ nennt sich dieses Verfahren „Dynamisierung“ und hat die Nr. 07 im Katalog Spezialisierter A-Navigatoren (Anlage 4). Auf der Grundlage eines Re-Inventings vieler Tausend Erfindungen wurde eine verallgemeinerte kurze Beschreibung dieses Verfahrens in Form folgender Empfehlungen ausgearbeitet: a) die Charakteristika eines Objekts (oder dessen Umgebung) müssen so geändert werden, dass sie bei jedem Arbeitsschritt optimal sind; b) das Objekt muss in Teile zerlegt werden, die im Verhältnis zueinander beweglich sind; c) wenn ein Objekt unbeweglich ist, muss es beweglich gestaltet werden.
Abb. 6.6. Haus auf dem Ponton und auf beweglichen Pfeilern
Abb. 6.7. Weinstock mit Scharnierspalier
6.2.2 Konstruktion eines speziellen A-Navigators Nr. 34 (Anlage 4) Bsp. 7. Hebekran für Autos auf der Ladefläche von LKWs. Wir haben alle schon einmal solche Hebekräne gesehen. Aber haben wir alle, oder haben zumindest alle Ingenieure darüber nachgedacht, welches Erfindungsverfahren hier als Hauptprinzip der Konstruktion angewendet wurde? Der Hauptwiderspruch, der bei der Entwicklung eines solchen Krans gelöst werden musste, kann so formuliert werden: der bewegliche Teil des Krans muss im Arbeitszustand lang sein, er soll aber nicht bedeutend länger sein als das gesamte ihn transportierende Auto. Vom Prinzip her besteht die Lösung darin, dass die Konstruktion des beweglichen Teils des Krans auch beweglich gestaltet wurde, und, am wichtigsten, sie wurde aus vielen Segmenten bestehend gestaltet, die ineinander gesteckt wurden (Abb. 6.8).
6 Von der Praxis zur Theorie
59
b) a) Abb. 6.8. Hebekran für Autos beim Transport (a) und bei der Arbeit (b)
Bsp. 8. Röhre für den Abtransport von Bauschutt. In dieser Erfindung werden konusförmige hohle Ringe verwendet, die beim Transport ineinander geschoben werden können, danach werden sie fast auf die gesamte Länge auseinander gezogen und verbleiben zu einem kleinen Teil ineinander gesteckt. So bilden sie eine „Röhre“ mit der benötigten Länge! Durch diese Röhre gelangt Bauschutt von den oberen Etagen eines Hauses direkt in einen Transportcontainer (Abb. 6.9). Bsp. 9. Kinderüberraschung (Ü-Eier). Ich gestehe, dass ich mich manchmal gerne von diesen Eiern überraschen lasse. b) Man weiß ja wirklich nie, was sich dort im Innern befindet! Das kann das Modell eines Autos oder Flugzeugs sein, ein Bärchen oder Häuschen usw. – der Phantasie der Entwickler dieses Produkts sind praktisch keine Grenzen gesetzt! Aber die Hauptüberraschung besteht in der Regel darin, a) dass keines dieser Spielzeuge zusammengebaut in das Ü-Ei Abb. 6.9. Röhre für passen würde! Und aus diesem Grund bestehen die dort Bauschutt zusamversteckten Spielsachen aus mehreren Teilen, die so mengesteckt (a) und zusammen-gelegt wurden, dass der Hohlraum des einen bei der Arbeit (b) Teils (Ei) mit anderen Teilen (Teile des Spielzeugs) ausgefüllt wurde. Und das ist das Grundprinzip dieser Sache, das hier gleich mehrfach verwendet wird: betrachten Sie bitte auch unter diesem Gesichtspunkt den essbaren Teil und auch die Aluminiumverpackung (Abb. 6.10).
a)
b)
Abb. 6.10. Kinderüberraschungs-Ei (a) und das darin befindliche Spielzeug (b)
Die Ergebnisse des Re-Inventings zusammenfassend kann man zu dem Schluss kommen, dass Sie es hier mit dem Prinzip des mehrfachen Einlegens eines Objekts in das andere zu tun haben, wobei Hohlräume rationell genutzt werden.
60
A-Studio: algorithmische Navigation des Denkens
Hierbei wird Platz gespart und völlig „unvereinbare“ funktionale Eigenschaften werden miteinander verbunden. In der klassischen TRIZ bekam dieses Verfahren die Bezeichnung „Matrjoschka“, nach dem Namen eines russischen Spielzeugs (Abb. 6.11), bei dem mehrere hohle Holzpuppen der Größe nach ineinander gesteckt werden können. (s. Navigator Nr. 34 im A-Katalog). Auf der Grundlage des Re-Inventings Tausender ähnlicher Erfindungen wurde folgende lakonische Beschreibung dieses Verfahrens erstellt: a) ein Objekt ist im Inneren eines anderen Objekts untergebracht, welches sich seinerseits wiederum in einem dritten Objekt befindet usw.; b) ein Objekt verläuft entlang des Hohlraums eines anderen Objekts.
b) a)
Abb. 6.11. Die „Matrjoschka“ in zusammengesteckter Form (a) und auseinandergenommen (b)
6.2.3 Formulierung des physikalisch-technischen Effekts, Definition aller (!) vier fundamentalen Navigatoren, der komplexen Navigatoren Nr. 5.3.1 (S2) und der spezialisierten Navigatoren Nr. 10 und Nr. 11 Bsp. 10. Wie schützt man Palmen in Fußgängerzonen vor Hitze. Mein jüngster Sohn berichtete mir von einer TRIZ-Lösung, die ihm in Valencia in Spanien aufgefallen war, als er dort einen Sprachkurs absolvierte. Um Palmen in Fußgängerzonen vor zu großer Hitze zu schützen, werden am Boden um die Palme herum große Eisstücke gelegt. Das Eis schmilzt langsam und versorgt so die wertvollen Bäume mit Wasser. Es kommt vor, dass an manchen Tagen von oben die Rinde und die Wedel auch mit Eis bestreut werden. Da wir uns in unserer Familie über solche interessanten Beispiele austauschen, erzählte darauf unser älterer Sohn, dass er bei einer Konferenz in San Diego in Kalifornien dasselbe Prinzip bemerkt hatte. Meine beiden Söhne haben Berufe gewählt, die eigentlich recht wenig mit Physik oder Chemie zu tun haben. Aber ihr Schulwissen reichte dafür aus, diese Prinzipien genau zu erkennen, die hier Verwendung gefunden haben. Es handelt sich hier um einen Phasenübergang, im gegebenen Fall um den Übergang von Wasser aus dem festen Zustand (Eis) in den flüssigen. Genau diese physikalische Eigenschaft wurde in einem „technologischen“ Verfahren verwendet – ständige Wasserversorgung der Bäume. Es ergab sich hier also ein Beispiel für die technische Anwendung dieser physikalischen Eigenschaft des Wassers. Die Darstellung dieser physikalischen Erscheinung unter Bezug auf ihre mögliche technische Anwendung bietet uns auch die Beschreibung eines bestimmten Basis-
6 Von der Praxis zur Theorie
61
A-Navigators oder physikalisch-technischen Effekts (nach der Terminologie der klassischen TRIZ) – Anlagen 8-10. Und übrigens: welche Struktur hat dieses Problem, das mit diesem Erfindungsverfahren gelöst wurde? Lassen Sie uns den Widerspruch folgendermaßen formulieren: 1. Wasser soll an den Wurzeln der Palme vorhanden sein, damit der Baum die Hitze überstehen kann; 2. Wasser sollte nicht an den Wurzeln der Palme sein, weil es wegen der Hitze schnell verdunstet. Ein solcher Widerspruch, der durch physikalische Prozesse bedingt ist, die in physikalischen Objekten ablaufen, kann in der Regel am effektivsten mit Hilfe des fundamentalen A-Navigators Nr. 4 beseitigt werden: Zerteilen der widersprüchlichen Eigenschaften im Stoff. Im gegebenen Beispiel vollzog sich eine solche Zerteilung auf der Basis der Verwendung von Möglichkeiten des Übergangs eines Stoffs in einen anderen Aggregatzustand. So kann das Wasser lange an der Palme bleiben, aber nur in Form von Eis. Genauer, für einen bestimmten Zeitraum (nämlich, solange das Eis nicht getaut ist) in einem Bereich des Raums (am Boden um die Palme herum) befindet sich das Wasser in zwei Aggregatzuständen: ein Teil des Wassers – in Form von Eis, und der andere – in flüssiger Form. Diese Empfehlung gibt es auch in konkreter und praktischer Form im komplexen A-Navigator Nr. 5.3.1 (S2 – Anlage 2): Verwendung des Aufteilens des Stoffs (Felds), Anwenden kapillarporöser Strukturen, Dynamisierung von Feldern und Komponenten, Verwenden von Phasenübergängen, Verwendung von Koordination und Dekoordination der Rhythmik und Frequenz. Die A-Navigatoren wurden auf der Grundlage des Re-Inventings von mehreren Tausend Erfindungen aufgestellt, die gezeigt haben, dass eben genau anhand dieser Transformationen äußerst wichtige technische Ideen entwickelt wurden. Jedoch scheint es mir besser, in diesem Lehrbuch Transformationsmodelle nicht anhand komplizierter technischer Beispiele zu erklären, die nur einem begrenzten Kreis von Spezialisten zugänglich wären. Im Gegenteil sollten wir Beispiele auswählen, die einem möglichst breiten Leserkreis verständlich sind. Bsp. 11. Wie lässt sich die Zuführung von Gas in Bergwerksstollen gewährleisten. Für eine Reihe von Operationen in Bergwerksstollen ist es manchmal zweckmäßig, gewisse Stoffe zu verbrennen, z.B. Erdgas. Dabei entsteht folgendes Problem: das Gas soll ununterbrochen in der Zone sein, wo die technologischen Operationen ablaufen, es darf aber auch nicht zu viel Gas dort sein, weil so die Brandgefahr steigen würde. Außerdem ist ein Schlauch- und Röhrensystem mit einer Länge von mehreren Kilometern recht kompliziert und teuer. Um die Sicherheit des gesamten Systems zu gewährleisten, wird kein Schlauch- und Röhrensystem installiert, sondern wird Gas in bestimmten Portionen in Ballons eingesetzt. Dabei wird das Gas nicht komprimiert, sondern verflüssigt, so dass es nur wenig Volumen hat. Die Ballons werden ausgetauscht und im Schacht in ausreichender Entfernung von der Stelle aufbewahrt, wo das Gas verbrannt wird. In dieser „simplen“ technologischen Erfindung wurden gleich mehrere ANavigatoren realisiert!
62
A-Studio: algorithmische Navigation des Denkens
Erstens, wurde der uns bereits bekannte fundamentale A-Navigator Nr. 4 und der komplexe Navigator Nr. 5.3.1 (S2) angewendet. Zweitens, wurde der fundamentale A-Navigator Nr. 2 (Anlage 5) angewendet: Zerteilen der widersprüchlichen Eigenschaften in der Zeit. Der betreffende Stoff befindet sich während des Verbrennens im gasförmigen Zustand, für die Lagerung und den Transport jedoch im flüssigen. Dabei überschneiden sich die Zustände für den konkreten Ballon teilweise in bestimmten Zeitintervallen, d.h. sie haben einen gemeinsamen Zustand, der vom Anfang der Verwendung des konkreten Ballons bis zu dem Zeitpunkt andauert, wenn das Gas darin verbraucht ist (beachten Sie bitte auch die Analogie zum tauenden Eis an den Palmen). Drittens, wurde der fundamentale A-Navigator Nr. 3 verwendet: Zerteilen der widersprüchlichen Eigenschaften in der Struktur. Es wurde der Übergang von einem ständigen Transport des Gases zu einem diskreten, portionierten Transport vollzogen. Dabei gewährleistet aber das gesamte System weiterhin die ununterbrochene Versorgung der Arbeitszone mit Gas. Das bedeutet, dass Teile des Systems den einen funktionalen Zustand haben, das gesamte System hingegen einen entgegengesetzten! Bsp. 12. Wie werden Schokoladenfläschchen mit Likör hergestellt. Solche Fläschchen kann man z.B. folgendermaßen herstellen: man gießt aus flüssiger Schokolade Hohlkörper in Form von Fläschchen, füllt sie nach dem Erkalten mit Likör und erhitzt dann erneut den oberen Teil des Hohlkörpers, bis er sich verflüssigt, um ihn dann zusammenzudrücken, so dass dort eine glatte geschlossene Fläche entsteht. Dabei wird jedes Fläschchen aus zwei schmelzbaren Hälften gefertigt, die dann an der Verbindungslinie erneut erhitzt werden, so dass sie im flüssigen Zustand zusammengefügt werden können. Dieses Verfahren war recht kompliziert, teuer und wenig produktiv. Der Grund dafür war die komplizierte und teure Gussform für die Schokolade. Die geringe Produktivität ergab sich aus dem langsamen Prozess des Einfüllens und Entleerens der Form, dem langsamen Prozess des Verbindens der Hälften der Fläschchen, dem langsamen Prozess des Einfüllens des Likörs und der Notwendigkeit die Flaschenhälse zu schließen. Hier wurde der A-Navigator Nr. 4 und der physikalisch-technische Effekt des Phasenübergangs eines Stoffs aktiv angewendet. Jedoch ist die gesamte Technologie wenig effektiv. Das administrative Problem lautet: wie lässt sich der Prozess insgesamt verbessern? Ein „idealer“ technologischer Prozess muss teure Formen für das Gießen der Schokolade ausschließen, muss ausschließen, dass die Fläschchen aus zwei Hälften bestehen und muss die Operation des Verschließens der Flaschenhälse ausschließen! Das heißt aber, dass wir etwas völlig unmögliches fordern! Vielleicht ist dies aber nur im Rahmen der alten Technologie „unmöglich“? Warum sollte man aber nicht eine neue Technologie erfinden, eben eine solche, die wir brauchen, eine „idealere“?! Was hindert uns daran? Vor allem stört uns eine standhafte stereotype Vorstellung von der „unveränderlichen“ Abfolge der Operationen im bekannten technologischen Prozess. Uns stört die stereotype Vorstellung von „unveränderlichen“ Zuständen von Stoffen und technologischen Operationen. Ja, dann wollen wir uns doch einmal gedanklich einen „idealen“ technologischen Prozess vorstellen. Machen Sie sich zunächst keine Sorgen darüber, wie er
6 Von der Praxis zur Theorie
63
umgesetzt werden kann. Stellen wir ihn uns einfach nur als ideales funktionales Modell vor. Gießen wir doch einfach die geschmolzene Schokolade so in eine „unsichtbare“ Form, sodass sie sofort die Gestalt eines Fläschchens erhält, als wäre innerhalb der metallischen Form eine „unsichtbare“ Form in Art eines Fläschchens eingelegt. Versuchen Sie bitte, sich diesen Prozess mehrmals vorzustellen! Beachten Sie, wie die Schokolade die durchsichtige Form benetzt. Kommen Sie da nicht auch auf die Idee, dass die obere Form gar nicht notwendig ist, da ja die Schokolade ganz genau die Linien der inneren Form durchfließt?! Lassen wir die obere Form doch einfach weg! Nicht schlecht! Aber was machen wir mit der inneren Form? Wie entfernen wir sie aus dem darauf erkalteten Schokoladenfläschchen? Erneut beobachten wir, wie die geschmolzene Schokolade etwas Unsichtbares, Durchsichtiges umfließt, etwas wie Glas oder Eis. Übrigens ist ein technologischer Prozess dann „ideal“, wenn es ein Ergebnis gibt, aber der Prozess der dazu führt eigentlich gar nicht stattfindet! Das lässt sich auch über ein so genanntes „ideales“ System sagen: es besteht eine Funktion, aber es gibt kein System und sie verbraucht keine Energie und nimmt keinen Raum ein. Wenden wir nun dieses „ideale“ funktionale Modell bei unserer Aufgabe an. Gehen wir davon aus, dass die innere Form gar nicht entfernt werden muss! Das könnte bedeuten, dass sie zu einem nützlichen Teil des fertigen Produkts würde!? Haben Sie schon eine Idee? Dann lesen Sie bitte nicht weiter und vollziehen gedanklich noch einmal die Beobachtung nach, wie die Schokolade irgendeine „innere Form“ umfließt. Denken Sie darüber nach, wie man aus irgendetwas „Nützlichem“ eine Form machen kann, die nicht entfernt werden muss? Ich denke mal, Sie haben die Lösung bereits gefunden: als „innere Form“ kann man gefrorenen Likör verwenden. Hierzu möchte ich keine Abbildung zeigen, weil ich Ihnen den Spaß gönnen möchte, diesen Prozess selbst in einer Skizze darzustellen. Versuchen Sie es doch einmal! Das ist nützlich und auch interessant. Unser eigentliches Ziel aber besteht darin, jetzt die theoretische, abstrakte Seite dieser Lösung aufzudecken. Erstens haben wir den fundamentalen A-Navigator Nr. 4 nicht nur für die Schokolade angewendet, wie es bei der traditionellen Technologie war, sondern auch für die Likörfüllung. Zweitens haben wir zweimal den komplexen A-Navigator S2-4 (Anlage 2) in dem Teil, der auf dem physikalisch-technischen Effekt des Phasenübergangs beruht, angewendet: Einfrieren des Likörs und folgendes Auftauen innerhalb des fertigen Fläschchens, sowie das Schmelzen der Schokolade und das spätere Erstarren auf der Eisoberfläche der Likörform! Drittens, arbeitet hier der fundamentale A-Navigator Nr. 1 (Anlage 5): Zerteilen der widersprüchlichen Eigenschaften im Raum. Anstelle der Suche nach einem eigentlich unmöglichen Verfahren des Entfernens der inneren metallischen Form aus dem fertigen Schokoladenfläschchen wurden die Ressourcen des inneren Raums selbst untersucht! Dabei konnten alle Widersprüche beseitigt werden, indem ein Hohlraum verwendet wird, der sich innerhalb des Fläschchens befindet, und mit einem nützlichen Stoff gefüllt werden kann! Letztendlich haben wir noch zwei spezielle A-Navigatoren verwendet!
64
A-Studio: algorithmische Navigation des Denkens
Die gefrorene Likörform ist nichts anderes als eine ein wenig verkleinerte Kopie des gesamten Schokoladenfläschchens (Endprodukt). Und das ist ein Teil der Realisierung des speziellen A-Navigators Nr. 10 „Kopieren“: a) anstelle eines unzugänglichen, teueren, unpassenden oder zerbrechlichen Objekts wird eine vereinfachte und preiswerte Kopie verwendet. Bei der neuen Technologie wird der Likör nicht mehr in das Fläschchen gefüllt, sondern der gefrorene Likör wird mit dem Fläschchen übergossen! Und das ist die Umsetzung des speziellen A-Navigators Nr. 11 „Entgegengesetzt“: a) anstelle einer Aktion, die von den Bedingungen der Aufgabe vorgegeben ist, wird eine entgegengesetzte Aktion durchgeführt (z.B. ein Objekt nicht kühlen, sondern erhitzen); b) ein bewegliches Teil eines Objekts (oder seine Umgebung) unbeweglich gestalten oder ein unbewegliches beweglich machen; c) ein Objekt „vom Kopf auf die Füße stellen“, die Innenseite nach außen kehren. Wir haben noch nicht alle Transformationsmodelle betrachtet, die sogar schon in diesen relativ einfachen Problemen vorhanden sind. Unser Ziel ist es jedoch, ihre reale Existenz in uns real umgebenden Objekten zu erkennen. Bereits jetzt können Sie aber dazu übergehen, für Sie interessante Aufgaben aufmerksamer zu analysieren, und das mit einem besseren Verständnis für verdeckte Systembeziehungen. Ihre analytischen und theoretischen Möglichkeiten werden unermesslich anwachsen, wenn Sie die Navigatoren und A-Algorithmen genau studieren, die in diesem Lehrbuch aufgeführt werden. Und dennoch werden Sie feststellen, dass bestimmte Aufgaben sich mit Hilfe der Ihnen zugänglichen Methoden und Kenntnisse nicht lösen lassen. Sie können zu dem Schluss kommen, dass das gesamte System ersetzt werden muss, oder sogar das Prinzip geändert werden muss auf dem das System beruht und zusätzliche wissenschaftliche Untersuchungen vorgenommen werden müssen. Aber selbst in solchen Fällen wird Ihre Lösung keine Abweichung vom Ziel oder eine Niederlage sein, sondern wird auf dem Fundament einer strategischen Lösung stehen.
7 Disziplin der Kreativität 7.1 Inspiration und Disziplin 1996 stellte ich die Software Invention Machine und ihre neueste Version TechOptimizer der Firma Invention Machine Corp., USA auf der Hannover-Messe vor. Wenn ich ab und zu meinen Stand verließ und von einem Assistenten vertreten wurde, besuchte ich andere Stände. Ich bot dann Spezialisten von Forschungund Entwicklungsabteilungen unsere Methoden und Software an. Die Software und die Methoden hatten großen Erfolg. Gegenüber befand sich der Pavillon eines großen Herstellers von Elektromotoren, Miniaturmotoren für den Gerätebau bis zu Motoren mit den Ausmaßen von mehreren Metern für Ozeanriesen. Auf einer
7 Disziplin der Kreativität
65
Magnettafel leuchtete dort ständig in Form und Farbe wechselnd der Werbeslogan auf: QUALITÄT DES DENKENS = QUALITÄT DER PRODUKTE Ich notierte diesen Slogan, um ihn auf Seminaren verwenden zu können und bald schon hatte ich eine Begegnung mit einem Kollegen, einem Professor der Forschungs- und Entwicklungsabteilung dieses Unternehmens. Seine erste Reaktion auf meinen Vorschlag war sehr lakonisch und widerspiegelte sehr klar die Einstellung vieler Leiter auch von Forschungs- und Entwicklungsabteilungen. Er sagte: „Wir haben bei uns zwar keine Probleme beim Erfinden, jedoch kann uns Ihre „Invention Machine“ beim Verkauf behilflich sein?!“ Das Ende unserer Unterhaltung finden Sie im Abschnitt Strategie und Taktik des Erfindens. Und es gab gute Gründe diesen Slogan noch tief greifender zu überdenken. Obwohl, der Wunsch, eine höhere Konkurrenzfähigkeit ohne Innovationen zu erzielen, sofort wohl als „Aufstand auf den Knien“ definiert werden müsste, wie Genrich Altschuller es selbst bildhaft in ähnlichen Situationen formuliert hätte. Danach gab es in den folgenden Jahren weitere 130 Treffen mit Vertretern aus Industrie und Forschung. Als Ergebnis dieser Treffen nahm meine Vorstellung von der Qualität des Denkens folgende Form an (Abb. 7.1). Funktionale Vollständigkeit Konstruktivität QUALITÄT DES DENKENS
Geschwindigkeit Stabilität
Abb. 7.1. Bestandteile der „Qualität des Denkens“
Funktionale Vollständigkeit bedeutet die Fähigkeit und Bereitschaft Ideen zu schaffen unter Berücksichtigung komplexer Anforderungen an die Qualität eines Systems (Produkts). Eine Lösung, die sich nur auf eine Kennziffer orientiert, erweist sich oft wegen des starken Konflikts mit anderen Qualitätskennziffern des Systems oder wegen des Konflikts mit anderen Systemen wie. z.B. die Natur, als untauglich. Konstruktivität bedeutet die Fähigkeit und Bereitschaft zu besitzen, zielgerichtet und begründet ein System zu vervollkommnen, ohne vom Ziel abzuweichen, ohne aber dabei zu ambitioniert oder gar zerstörerisch vorzugehen. Konstruktivität bedeutet auch, die Fähigkeit zu haben und bereit zu sein, einen Durchbruch zu erringen und führend in seinem Bereich zu werden. Geschwindigkeit bedeutet, die Fähigkeit zu besitzen, auf Herausforderungen ohne Verzögerung zu reagieren. Geschwindigkeit bedeutet, die Fähigkeit zu besitzen, sich losreißen zu
66
A-Studio: algorithmische Navigation des Denkens
können und selbst zum Herausforderer zu werden. Stabilität des Denkens heißt, man muss dem Einwirken störender Faktoren erfolgreich standhalten. Was senkt die Qualität des Denkens? Die Antwort auf diese Frage wurde auf der Basis einer noch längeren Zeit und umfangreicher Erfahrungen formuliert (Abb. 7.2). ENGE SPEZIALISIERUNG
NEGATIVE STEREOTYPE BEIM DENKEN
GERINGE MOTIVATION
Raten anstelle zu lösen Fehlende Strukturierung der Problemsituation Kein Gespür für die Widersprüche Vorgehen nur nach einem Typ Angst vor dem Problem
NEGATIVE EMOTIONEN
Angst vor Fehlern Stress „Hier und jetzt“
UNBEFRIEDIGENDE GEFÜHLE
wenig Übung, Müdigkeit, Krankheit
Abb. 7.2. Negative Faktoren, welche die Qualität des Denkens beeinflussen
Wenn folgende positive Faktoren (Abb. 7.3) umgesetzt werden könnten, ließen sich alle negativen Faktoren aus Abb. 7.2 kompensieren. Fundamentale Grundlagen UNIVERSELLE AUSBILDUNG
Ökologie Geschichte und Kultur
METHODEN UND ERFAHRUNGEN
Spezialisierung TRIZ-CROST Psychologische Methoden
TRAINING Abb.7.3. Positive Faktoren, welche die Qualität des Denkens beeinflussen
Jedoch können wir noch lange nicht damit rechnen, dass das System der Hochschulbildung geändert wird, so dass überall die TRIZ-CROST unterrichtet würde. Dennoch besteht die Möglichkeit, die TRIZ-CROST selbstständig zu erlernen und Trainings zu dieser Technologie zu absolvieren. Angebote von Firmen in dieser Richtung werden immer häufiger.
7 Disziplin der Kreativität
67
Worin aber bestehen konkret die Probleme mit denen jeder Spezialist in seiner Arbeit fast ununterbrochen konfrontiert wird? Worin unterscheiden sich Begriffe wie „Aufgabe“ und „Problem“, die anscheinend dieselbe Bedeutung haben? Antworten auf diese Fragen können auch Licht in die Problematik des Unterschieds zwischen Kreativität erfordernden und Routine- oder Standardlösungen bringen. Die Vorschläge der meisten Methodologen der Kreativität beziehen sich hauptsächlich auf die Etappe der Generierung einer Lösung, auf den Moment, in dem sich die bisherige Arbeit und das angestrengte Nachdenken über das Problem mit Inspiration verbindet und zur Erleuchtung führt, zum Verständnis des Problems und zur Entstehung einer Lösung. Für die Entwicklung solcher Komponenten der Kreativität, wie das assoziative Denken, Konzentration des Gedächtnisses, Überwindung negativer Stereotype gibt es viele nützliche Dinge. Unsere Anstrengungen bei der Entwicklung effektiver Technologien für die Lösung von Problemen, die Kreativität erfordern, konzentrieren wir genau auf diesen Punkt. Wie im Weiteren zu erkennen sein wird, umfasst die TRIZ-CROST jedoch alle Etappen der Problemlösung. Außerdem besteht das Ziel der TRIZ-CROST in der Verringerung des Arbeitsaufwands bei der Vorbereitung des Problems auf die Lösung, und die Schaffung prinzipiell günstigerer Bedingungen für den Spezialisten, um seine persönlichen Fähigkeiten entfalten zu können und um seine Sicherheit zu vergrößern, die Richtigkeit und Effektivität unserer Methoden erkennen zu können. Eben diese Zuverlässigkeit und Effektivität der Methoden der TRIZ-CROST schaffen eine echte Motivation, die zu wahrhafter Inspiration führt. Nicht selten kommt es vor, dass selbst Aufgaben ein und desselben Typs mit verschiedenen Methoden gelöst werden können. In der Regel steht das in Verbindung mit dem Schwierigkeitsgrad der Aufgabe. Wenn eine Aufgabe wegen ihres Umfangs kompliziert wird, kann man sagen, dass sie wegen des großen Arbeitsaufwandes als schwierig eingestuft wird. Eine Aufgabe wird oft genau wegen dieses Arbeitsaufwandes zum Problem. Angenommen, Sie müssen um eine optimale Verbindung von Parametern eines Objektes zu finden, 10 Faktoren mit je 10 Eigenschaften untersuchen. Selbst wenn Sie zur Analyse einer Kombination nur eine Sekunde verwenden würde, brauchten Sie zur Lösung der gesamten Aufgabe mehr als 300 Jahre! An dieser Stelle kommt man ohne mathematische Modelle und einen guten Computer nicht mehr aus. Und einige Kombinationsaufgaben können selbst die modernsten Computer nicht lösen. Dennoch wird eine Aufgabe eigentlich immer dann zum Problem, wenn nicht genügend oder nur unzuverlässige Informationen über die Aufgabe oder die Methode ihrer Lösung (Abb. 7.4) zur Verfügung stehen. Außerdem entsteht ein Problem besonders dann, wenn bei der Lösung, Ressourcen nur in beschränktem Maße zur Verfügung stehen, am häufigsten handelt es sich dabei um zeitliche Einschränkungen. Es gibt Situationen in denen sogar einfache Aufgaben aus Zeitmangel zu ernsthaften Problemen werden. Kommen wir zu einigen Beispielen.
68
A-Studio: algorithmische Navigation des Denkens
Bsp. n1. Die Multiplikation zweier einstelliger Zahlen im Kopf, z.B. 5 x 6 = 30 gilt als einfache Aufgabe. Umso mehr, da es sich hierbei um eine tabellarische Standardaufgabe handelt, deren Lösung bekannt ist und automatisch produziert wird.
AUFGABE
Schwierigkeit steigt
PROBLEM
Ausreichende Informationen
Unzureichende Informationen
Zuverlässige Informationen
Unzuverlässige Informationen
Methoden sind bekannt
Methoden sind unbekannt
Ausreichende Ressourcen
Unzureichende Ressourcen
Abb. 7.4. Aufgaben und Probleme
Bsp. n2. Die Aufgabe zwei dreistellige Zahlen im Kopf zu multiplizieren, wie z.B. 479 x 528 = ?, wird bei einer Zeitbegrenzung von angenommen 20 Sekunden, nur für sehr wenige lösbar sein. Das ist ein Problem, welches ohne spezielles Training, nur schwer zu lösen ist. Dennoch gibt es ja die bekannte Methode, die Lösung schriftlich durchaus in einer Minute zu errechnen. Bsp. n3. Noch vor zwei Jahrhunderten war die Lösung einer quadratischen Gleichung der Form: ax2 + bx + c = 0; nur graphisch oder durch Näherungsverfahren möglich. Heute liegt die Lösungsmöglichkeit in der bekannten analytischen Formel vor: x 1,2 = (– b ± (b2 - 4ac)1/2) : 2a. Das Problem wurde in den Rang einer Aufgabe erhoben. Bsp. n4. Der Bösewicht aus der bekannten Legende, der die junge Schöne besitzen wollte, stellte die Bedingung, dass sie vor Zeugen auf einem Platz aus einem Sack den weißen Stein ziehen müsse, und nicht den schwarzen. Dann würde er dem Vater die Schulden erlassen und sie wäre frei. Insgeheim legte er jedoch zwei schwarze Steine in den Sack. Welchen Rat würden Sie dem Mädchen geben, um gerettet zu werden? (Sie müssen noch wissen, dass das Mädchen über die bösen Absichten Bescheid wusste). Bsp. n5. Es ist bekannt, dass Staus auf Autobahnen und Straßen deshalb entstehen, weil die Kapazitäten (eine grundlegende funktionelle Ressource) dieser Transportwege erschöpft sind. Besonders in der Rushhour, schon bei dem kleinsten Hindernis in Form eines liegen gebliebenen oder gerade zu entladenden Fahrzeugs, der Rekonstruktion eines an der Straße liegenden Gebäudes oder bei Straßenbauarbeiten kommt es regelmäßig zu Staus. Auch sind die Ressourcen des Raums erschöpft, um zusätzliche Straßen zu bauen. Haben Sie einen Vorschlag
7 Disziplin der Kreativität
69
für die Modernisierung der bestehenden Autobahnen und Straßen? Haben Sie einen Vorschlag für neue Nah- und Fernverkehrssysteme? Können Sie Ihre Ideen auch nachhaltig vertreten? Es ist offensichtlich, dass die Lösungen der Aufgaben in den Beispielen n4 und 5 n eines erfinderischen Zugangs und außergewöhnlicher Kreativität bedürfen. An den Problemen aus dem Beispiel n5 arbeiten derzeit (zu Beginn des III. Jahrtausends) ganze wissenschaftliche Institute und Forschungseinrichtungen. Effektive Lösungen sind jedoch bisher nicht bekannt! Die Lösung der Aufgabe in Beispiel n4 erklärt uns der Psychologe und Pädagoge Edward de Bono. Das Mädchen greift in den Sack und nimmt einen der Steine heraus und wirft ihn sofort weg, ohne ihn jemandem gezeigt zu haben. Danach fordert sie die Anwesenden auf, sich den verbliebenen Stein anzusehen. Wenn er Schwarz ist, heißt das, dass der weggeworfene Stein weiß gewesen sein musste, und sie und ihr Vater frei sind! Der Bösewicht hat verloren, denn den weggeworfenen Stein suchen zu lassen oder es abzulehnen den verbliebenen aus dem Sack zu nehmen, würde seine böse Absicht offenbaren. Der Sinn dieses Beispiels und die Erklärung besteht nicht nur darin, dass man in keiner noch so aussichtslosen Situation aufgeben sollte, sondern auch darin, dass man zumindest jede Situation von verschiedenen Seiten betrachten muss, um Möglichkeiten einer Veränderung abzuwägen und oft versteckte, jedoch völlig nahe liegende Ressourcen aufzudecken. Das eigentliche Problem ist, dass wir entweder gar nicht versuchen Ressourcen zu finden, die nicht auf den ersten Blick sichtbar sind, oder, gestehen wir es ein, dazu nicht in der Lage sind. Bereits G. Altschuller hatte versucht die Anzahl der Aufgaben aus Patentbeständen entsprechend des Schwierigkeitsgrads in Proportion zu setzen. Dabei kam er auf ein Verhältnis von ca. „80:20“ (Abb. 7.5). Challenge !
80 % +
16 %
+
Komplizierte
Standard-Aufgaben
3%
+
Kritische
1% Extreme
Nicht-Standard-Aufgaben
Abb. 7.5. Verteilung der Aufgaben nach ihrem Schwierigkeitsgrad
Die Grundlage für die Lösung aller Aufgaben bilden professionelle Kenntnisse. Diese Bedingung ist notwendig, aber nicht hinreichend. Um ein Problem in den Rang einer Aufgabe (Abb. 7.4) zu erheben, muss es zumindest den Bedingungen des Hinreichenden entsprechen, speziell, muss es vollständige und zuverlässige Informationen über die Problemsituation geben, es müssen ausreichend Ressourcen vorhanden sein und Methoden müssen bekannt
70
A-Studio: algorithmische Navigation des Denkens
sein, mit deren Hilfe man die Gesamtheit aller offensichtlichen und verdeckten Ressourcen in eine Lösungsidee transformieren kann. Denken wir noch einmal daran, was solche traditionellen Methoden wie z.B. die Method of focal objekts, das Brainstorming, die Synektik und die Morphologische Analyse empfehlen (Abb. 4.2-4.5): - suchen Sie zufällige Assoziationen; - phantasieren Sie; - versetzen Sie sich in die Rolle des Objekts; - wählen Sie alle möglichen Kombinationen aus. Diese Methoden sind insgesamt nützlich und können oft zu Lösungen bei bestimmten Standardproblemen führen. Jedoch verlieren diese Methoden oft sehr schnell an Effektivität, wenn der Schwierigkeitsgrad des Problems steigt. Streng genommen sind diese Methoden einfach nicht in der Lage, die Inspiration zu stimulieren. Die Folge dessen sind oft langes und hilfloses Suchen, große materielle und intellektuelle Aufwendungen, schwache und untaugliche Ideen, irrtümliches Abweichen von eigentlich aussichtsreichen Zielen. Es werden hocheffektive Methoden benötigt, die das Denken bei der Lösung konstruktions-technischer Probleme mit starken physikalisch-technischen Widersprüchen steuern können. Es werden konkrete konstruktive Navigatoren für konkrete Problemsituationen benötigt. Die TRIZ liefert diese Navigationsinstrumente für das Denken und Navigationssysteme für technische Standard- als auch Nicht-Standardprobleme. Die TRIZ ist ein System, welches das Denken diszipliniert. Ein Spezialist, der die TRIZ beherrscht hat eine Art psychologisches Schutzschild, da er im Innern weiß, dass er über das beste Instrumentarium für das Denken beim Erfinden verfügt, welches bis dato von der Menschheit entwickelt wurde. Das gibt Zuversicht in die eigene Kraft, und beflügelt wie nichts anderes die Inspiration und führt zu mutigen Lösungen von Problemen. 7.2 Meta-Algorithmus des Erfindens Die TRIZ ist eine qualitative Theorie. Die Modelle einer solchen Theorie bilden Empfehlungen, Regeln, Instruktionen, Rezepte und Muster. All diese Modelle dienen als Instrumente des Denkens, sie sind Navigatoren des Denkens. Die TRIZ ist nicht die einzige qualitative Theorie. Es reicht aus auf solche „echten“ Theorien zu verweisen, wie die qualitative Physik, qualitative Informationstheorie, die Psychologie oder Medizin und auch viele Bereiche der Chemie. Qualitative Modelle liegen sowohl der Theorie der Malerei als auch der Kinematografie zu Grunde, der Musik- und Literaturtheorie, sowie praktisch allen Wissensbereichen und allen Gebieten der menschlichen Tätigkeit wie Sport, Marketing, Pädagogik, usw. Die TRIZ ist eine konstruktive Theorie. Auch andere oben erwähnten Theorien sind in dieser Art konstruktiv. Der Konstruktivismus hat hier zwei Grundlagen.
7 Disziplin der Kreativität
71
Die erste Grundlage ist die äußerst pragmatische Interpretation von Modellen und der Zweck einer jeden Theorie: die Orientierung auf angewandte Probleme, auf den Erhalt von praktischen Ergebnissen auf der Basis systematisierter und verallgemeinerter Erfahrungen, auf der Basis einer experimentellen Bestätigung der Realisierbarkeit und Effektivität der angewendeten Modelle der Theorie. So rechtfertigen z.B. Psychologen oft ihre Modelle und Theorien mit der folgenden konstruktiven These: wir wissen nicht genau, wie das Gehirn funktioniert, aber wir wissen in vielen Fällen genau, wie man einem bestimmten Individuum helfen kann, die richtigen Entscheidungen zu treffen. Als zweite Grundlage kann der Umstand dienen, dass die Modelle der qualitativen Theorien streng den Konzeptionen der konstruktiven Mathematik entsprechen. Sie sind hier zwar sehr vereinfacht, aber es wird ihre Korrektheit beibehalten, so dass man sagen kann, dass die konstruktive Mathematik mit qualitativen Modellen zu tun hat, die durch folgendes konstruktives Verfahren determiniert werden: 1) es werden die ursprünglichen konstruktiven Objekte fixiert, die sich im speziellen in Form von Beispielen und Mustern definieren lassen; 2) es werden Regeln fixiert (nicht unbedingt als Axiome), anhand derer aus bereits existierenden Objekten neue Objekte konstruiert werden; 3) es werden Bedingungen fixiert und auf die ursprünglichen und konstruierten Objekte übertragen, die dann ihre Konkurrenzfähigkeit (z.B. Realisierbarkeit, Nutzen und Effektivität) bestimmen. Die Gesamtheit von Regeln, welche die Entwicklung neu zu konstruierender Objekte bestimmen, wird als Algorithmus bezeichnet. Verallgemeinerte Algorithmen, auf deren Basis speziell orientierte (auf konkrete Anwendungen und spezielle Modellklassen ausgerichtete) oder detaillierte (genauere) Algorithmen beruhen, nennen wir hier „Meta-Algorithmen“. Betrachten wir einige Beispiele, die uns helfen können, die Zusammenhänge besser zu verstehen. Bsp. n6. Sie sind dabei, eine Party zu organisieren. Vorher machen Sie sich Gedanken, wie viele Gäste erwartet werden, welche Arten von Cocktails Sie anbieten wollen. Wie viel fertige Cocktails Sie vorher mixen, und welche Cocktails direkt während der Party je nach Geschmack der Gäste zubereitet werden können. Sie machen sich Gedanken um die Kosten der Party und welche Vorräte an Komponenten für die Cocktails besorgt werden müssen. Sie verlassen sich nicht ganz auf Ihr Gedächtnis und schlagen in einem Buch mit Rezepten für Cocktails nach. Sie wählen die entsprechenden Abschnitte mit den Cocktailarten aus, z.B. alkoholisch und alkoholfrei, mit Eis und ohne Eis. Danach wählen Sie bekannte und nicht bekannte Namen der Cocktails aus, lesen jedes Rezept, konkretisieren oder ändern vielleicht Komponenten und Proportionen je nach Ihrem eigenen Geschmack. Am Schluss überprüfen Sie, ob Sie alle Cocktails „projektiert“ haben, und ob Sie alles da haben, damit die Cocktails auch für die ganze Zeit der Party ausreichen. Diese Beschreibung kann man als „Meta-Algorithmus“ der Vorbereitung von Cocktails für eine Party betrachten. Beachten Sie, nicht für einen konkreten Cocktail, sondern für einen beliebigen oder mehrere Cocktails! Dabei kann man das Rezept für die Zubereitung eines konkreten Cocktails als Algorithmus für die Navigation Ihres Denkens für die Zubereitung dieses konkreten Cocktails bezeichnen.
72
A-Studio: algorithmische Navigation des Denkens
Wir können in diesem „Meta-Algorithmus“ ganz klar verschiedene Etappen unterscheiden, in denen vom Inhalt her unterschiedliche Aufgaben gelöst werden. Wenn wir die Organisation einer Party als Problem betrachten, so haben Sie sich in der ersten Etappe mit der Untersuchung der Problemsituation beschäftigt: Sie haben die Anzahl der Gäste festgelegt, haben über Ihre Geschmäcker nachgedacht, haben sich Typen von Cocktails ausgedacht usw. In der zweiten Etappe haben Sie in einem Nachschlagewerk nachgesehen, um zu überprüfen ob sie sich richtig an die Zusammensetzung der Cocktails erinnert haben oder um neue Rezepte kennen zu lernen. In der dritten Etappe haben Sie mit Modellen gearbeitet – mit Cocktailrezepten, um sie zu reproduzieren oder neue zu arrangieren. Am Ende dann haben Sie kontrolliert, ob alles für die Party bereit ist. Der gesamte „Meta-Algorithmus“ teilte sich in vier große Etappen auf, die völlig verständlich sind und eigentlich viel mehr Details für die Beschreibung von praktischen Handlungen haben. Man kann diesen Etappen Bezeichnungen geben, z.B. auf folgende Art: Diagnostik (Problemsituation), Reduktion (Zurückführen auf bekannte Modelle), Transformation (Finden von Ideen auf der Grundlage steuernder Transformationsregeln) und Verifikation (Überprüfen der potentiellen Erreichbarkeit von Zielen). Als Abschluss dieses Beispiels sollte festgestellt werden, dass dieses kleine Nachschlagewerk mehrere Dutzend Rezept-„Modelle“ enthält. So auch in der TRIZ: aus mehreren Dutzend Hauptmodellen der TRIZ muss eine bestimmte Gruppe von Modellen für die Lösung einer konkreten Aufgabe zusammengestellt werden. Das heißt eine gerichtete Kombination von A-Navigatoren ermöglicht die Lösung von zehn oder hunderttausender unterschiedlichster Aufgaben. Bsp. n7. Für die Lösung praktischer Aufgaben bei Produktion, Planung, Projektierung, Steuerung, Untersuchungen wurden und werden Tausende mathematischer Modelle und Rechenalgorithmen ausgearbeitet. Für jede Aufgabenklasse existiert ein verallgemeinertes Lösungsschema für jede beliebige Aufgabe, die zu dieser Klasse gehört. Dieses verallgemeinerte Schema eben ist ein „Meta-Algorithmus“. Betrachten wir zum Beispiel den vereinfachten „Meta-Algorithmus“ für die Lösung linearer Gleichungssysteme (Abb. 7.6) bei bestimmten praktischen Aufgaben. Modelle der linearen Algebra haben große praktische Bedeutung für die Bearbeitung experimenteller Daten nach der Methode der kleinsten Quadrate, für die Näherungsrechnung bei der Lösung von linearen Integral- und Differentialgleichungen mit der Methode endlicher Divergenzen (z.B. bei der 3D Modellierung mit Computern) u.ä. Die Auswahl eines praktischen Verfahrens für die Lösung von linearen algebraischen Gleichungssystemen hängt von der Struktur der Ausgangsdaten ab, dem Umfang des Systems (der Anzahl unbekannter Variablen) und selbst von der Kapazität des Computers. Die Wahl der Lösungsmethode, bei gut aufgestellten Systemen und ausreichendem Datenumfang wird zu einem durchaus nicht trivialen Problem. Es gibt eine große Anzahl von Iterationsmethoden, Methoden des schnelleren Durchlasses, minimaler Nichtübereinstimmung und andere mit unterschiedlicher Effektivität. Außerdem gibt es für einige Datenstrukturen einer Aufgabe manchmal keine „klassische“ genaue Lösung (nicht korrekt gestellte und schlecht gestellte Aufgaben).
7 Disziplin der Kreativität
73
Theorie der Modelle der linearen Algebra Reduktion
Transformation
Aufbau eines Aufgabenmodells in Form eines Systems linearer algebraischer Gleichungen
1
2
Auswahl der Rechen- und Lösungsmethode des linearen Gleichungssystems
3
Diagnostik
Verifikation
Untersuchung der Aufgabe
Überprüfung der Lösung
Eingang
Ausgang
Angewandter gegenständlicher Bereich Abb. 7.6. Meta-Algorithmus für die Lösung von Aufgaben auf der Basis der Berechnung linearer algebraischer Gleichungssysteme
Bei der vorliegenden Aufgabe hat der „Meta-Algorithmus“ die Eigenschaft der Invarianz, da er nicht vom Inhalt konkreter Prozeduren seiner Etappen abhängt. Wichtig dabei ist, dass die Etappen Diagnostik und Verifikation zum Bereich der Existenz der Aufgabe gehören, d.h. zu einem bestimmten Bereich der praktischen Anwendung linearer Gleichungen. Die Etappen Reduktion und Transformation gehören zur mathematischen Theorie der linearen Algebra. Deshalb bedürfen die Übergänge 1 und 3 der Kenntnis sowohl von Modellen der Theorie als auch angewandter Bereiche Ihrer Verwendung. Der Übergang 2 erfordert die Fähigkeit, Modelle der Theorie aufzubauen und zu lösen. Hochschulabsolventen schaffen es während ihres Studiums oft nicht selbst für die Lösung relativ „einfacher“ hier erwähnter Modelle alle ausreichenden praktischen Fertigkeiten zu erwerben. Analog dazu, muss man dazu bereit sein, dass auch die TRIZ-Methoden in der Praxis und bei Trainings so weit wie möglich vervollkommnet werden müssen. Bsp. n8. Sehen wir uns die rechnerische Lösung für das Beispiel n7 an. Gehen wir davon aus, dass in zwei Betriebsteilen eine unterschiedliche Anzahl von Maschinen zweier Typen arbeitet. Um genau die mittlere Kapazität der Maschinen feststellen zu können, wurde beschlossen, vorhandene Messungen des Energieverbrauchs in jedem Betriebsteil pro Tag zu Grunde zu legen. In der Etappe der Diagnostik des Problems wurden die Anzahl der Maschinen jedes Typs und die Angaben über den Verbrauch an Elektroenergie festgehalten. In der Etappe der Reduktion wurde ein System aus zwei linearen Gleichungen mit zwei Unbekannten aufgestellt. In der Etappe der Transformation wurde aus zwei äußerst einfachen Methoden (Methode des Ausschlusses von Variablen und Methode der Substitution
74
A-Studio: algorithmische Navigation des Denkens
und Umstellung der Variablen) die zweite ausgewählt. In der Etappe der Verifikation konnte durch direktes Einsetzen der erhaltenen Werte für die gesuchten Variablen in der Ausgangsgleichung festgestellt werden, dass die Lösung der Aufgabe richtig war. Dieses Beispiel (Abb. 7.7) dient als äußerst einfache praktische Illustration des abstrakten Schemas aus der Abb. 7.6 und ist sehr wichtig, um Fertigkeiten bei der Arbeit mit dem „Meta-Algorithmus“ zu erwerben, um dann zur Aneignung des Schemas „Meta-Algorithmus des Erfindens“ übergehen zu können. Reduktion Aufgabenmodell: 2X + 6Y = 340 X + 2Y = 130
Transformation
2 (1) (2)
Berechnung: aus (2): X = 130 – 2Y aus (1): 2Y = 80 Lösung: X = 50; Y = 40
1
3
Diagnostik Untersuchung der Aufgabe: in dem ersten Betriebsteil sind 2 Maschinen vom Typ X und 6 vom Typ Y; im zweiten Betriebsteil ist 1 Maschine vom Typ X und 2 vom Typ Y; Der Energieverbrauch betrug entsprechend 340 und 130 Kilowattstunden.
Verifikation die Lösung ist richtig. Ausgang
Eingang Abb. 7.7. Illustration der Funktionsweise des Meta-Algorithmus der Lösung eines Systems linearer algebraischer Gleichungen
Nun haben wir alles, was wir brauchen, um klassische TRIZ-Beispiele zu betrachten, in denen sich die gesamte klassische TRIZ in komprimierter Form widerspiegelt. Um aber den Prozess des Re-Inventings jetzt zu ordnen, können wir die Hauptetappen des von uns gerade konstruierten Meta-Algorithmus für die Lösung eines Systems linearer Gleichungen oder für die Zubereitung von Cocktails durchlaufen! Bsp. 13. Schießen „auf fliegende Teller“ (Tontaubenschießen). Auf Schießplätzen, wo Sportler das Schießen auf fliegende Zielscheiben trainieren, entsteht viel Müll durch die Bruchstücke der getroffenen „Teller“ (Abb. 7.8). In Brainstormings, die ich durchführte, kamen wir meist zu folgenden Ideen: die „Teller“ so fertigen, dass sie unzerbrechlich sind, oder ein magnetisches Material zu verwenden um schnell und leicht die Bruchstücke mit einer Maschine aufsammeln zu können, oder sie so zu gestalten, dass sie aus zusammenhängenden Teilen bestehen, damit sie nicht so weit auseinander fliegen, oder, die „Teller“ mit einer Schnur zu versehen, um sie dann, nachdem sie getroffen wurden an dieser Schnur zu einer Kehrmaschine zu ziehen, oder den Schießplatz mit einer Art Teppich zu bedecken, der sich leicht reinigen lässt, oder die „Teller“ aus Ton oder Sand
7 Disziplin der Kreativität
75
herzustellen, so dass es hinterher ausreicht, den Boden zu glätten, ohne die Teile aufsammeln zu müssen, usw. Wir sehen hier ziemlich unterschiedliche – gute und auch gelungene Ideen (analysieren Sie diese bitte, und fügen Sie Ihre eigenen hinzu!) Können Sie jedoch die eigentliche Hauptsache genau formulieren: wo kommt das Problem denn eigentlich her? Was lässt sich an diesem Problem so schwer lösen? Und was genau wollen wir erreichen? (Auch hier ist es günstig seine eigenen „Modelle“ zu notieren, um sie danach mit Abb. 7.8. Auf dem Schießplatz den Lösungsvorschlägen zu vergleichen.) Versuchen wir auf diese Fragen eine Antwort zu finden, wie sie die TRIZ uns lehrt (Achtung, die Darstellung trägt nur den Charakter eines Lehrbeispiels und hat deshalb eine sehr komprimierte Form!). Diagnostik. Konkretisieren wir die negativen Eigenschaften des Problems, die beseitigt werden müssen: die Bruchstücke wirken negativ auf den Boden (Schießplatz). Stellen wir nunmehr die Struktur des Problems in Form eines Konflikts dar: wenn die Bruchstücke beseitigt werden müssen, ist das sehr arbeitsaufwendig, und die kleineren Teile der Zielscheiben verunreinigen trotzdem immer mehr den Boden des Schießplatzes; wenn die Bruchstücke nicht beseitigt werden, sammelt sich irgendwann eine Unmenge von Müll an. Reduktion. Versuchen wir uns die Struktur des Problems in einer äußerst komprimierten, jedoch auch sehr anschaulichen Form vorzustellen, z.B. in der Form der folgenden Widersprüche. Widerspruch 1 Die Bruchstücke werden beseitigt Widerspruch 2 Die Bruchstücke werden nicht beseitigt
man reinigt den Boden (Schießplatz) arbeitsaufwendig der Boden wird verunreinigt (Schießplatz) einfach
Jetzt zumindest wird deutlich, dass es ein konkretes Modell des Konfliktes gibt, und dass mindestens zwei Strategien der Lösungssuche formuliert werden können. Das wären folgende: wenn man im ersten Modell versuchen würde die negative Eigenschaft zu beseitigen, so wäre das Ziel, den Arbeitsaufwand zu verringern. Und wenn man im zweiten Modell versuchen würde, die negative Eigenschaft zu beseitigen, so wäre das Ziel, die Verschmutzung des Bodens zu verhindern. Die zweite Strategie ist tiefgründiger – ihr Ziel stimmt mit dem positiven Hauptergebnis, das für uns interessant sein könnte, überein, nämlich den Boden gar nicht zu verunreinigen! Und deshalb wählen wir die zweite Strategie. (Es sei anzumerken, dass bereits hier Verfahren der TRIZ aus dem Abschn. 11 angewendet werden müssten, aber aus methodischen Gründen lassen wir sie an dieser Stelle zunächst noch weg.)
76
A-Studio: algorithmische Navigation des Denkens
Bestimmen wir jetzt (nennen wir es mal einfach so!), den physikalischen Grund für den Widerspruch. sie müssen da sein, da sie aus der Zielscheibe entstehen Widerspruch 3 sollen nicht da sein, um nicht den Boden Die Bruchstücke des Schießplatzes zu verunreinigen In dieser Formulierung scheint das Problem noch unlösbarer, nicht wahr?! Was halten sie nun von noch einer Form des „physikalischen Widerspruchs?“
Widerspruch 4 Die Bruchstücke
sollen nicht sein - vor dem Abschießen: der „Teller“ muß ganz sein sollen da sein - sofort nach dem Abschuß sollen nicht da sein - nach kurzer Zeit nach dem Abschuß
Wollen wir doch mal ein recht phantastisches „ideales“ Ergebnis formulieren: die Bruchstücke räumen sich selbst auf, oder noch besser sie verschwinden von allein. Oder: der Boden selbst räumt die Bruchstücke weg. Oder: die Bruchstücke sind für den Boden unschädlich. Oder irgendein Zauberer namens X bringt alle Bruchstücke unbemerkt irgendwohin. Oder? Lassen Sie Ihrer Phantasie freien Lauf! ... Ach was, mit diesen Phantasien ist es auch nicht einfacher geworden? Das mag sein. Aber dennoch kommt es Ihnen nicht so vor, als hätte sich etwas noch nicht ganz greifbares zumindest verändert? Ist da nicht ein Stückchen Hoffnung aufgekommen? Das Problem ist nun nur noch, diese Phantasie in eine real existierende Realität umzuwandeln. Transformation. Betrachten wir die erste Version: können die Bruchstücke irgendwohin einfach so verschwinden, wegfliegen, d.h. sich zusammentun, und dann ab damit? Oder besser noch sich in Luft auflösen, wie in einem Märchen? Die zweite Version: der Boden verschluckt die Bruchstücke einfach und macht sie damit unschädlich. Die dritte Version führt uns zum Material der Zielscheiben – welches Material ist unschädlich? (Erinnern diese Phantasien uns nicht irgendwie an synektische Operationen?) Und dennoch überlegen wir, welche dieser Versionen klingt am wenigsten phantastisch? Am ehesten die dritte, denke ich. Obwohl auch die erste nicht ohne jeden Reiz ist. Also kommen wir zum Material der Zielscheiben. Jegliches Material besteht aus einer bestimmten Anzahl von Teilchen, die zu einem Ganzen verbunden wurden. Und logisch, damit das Material unschädlich für den Boden sein soll, muss jedes einzelne Teilchen auch unschädlich sein. Was ist das für ein Material? Sand? Nein - der würde sich irgendwann anhäufen. Was bliebe da noch? Und wenn wir nun all diese Phantasien miteinander verbinden: die Teilchen des Materials sind unschädlich für den Boden, dringen problemlos in den Boden ein – und verschwinden von selbst. Was ist denn das letztendlich? Wasser? Wasser jedoch kann nur in Form von Regen fliegen! Oder? Stop!
7 Disziplin der Kreativität
77
Wasser kann auch in Form von Schnee oder Hagel „fliegen“. Und Hagel ist Eis! Ja, man kann die „Teller“ doch aus Eis machen! Verifikation. Sind Sie einverstanden, dass gerade die Verschärfung des Konflikts uns dazu gezwungen hat, wahrheitsgetreue Phantasien zu entwickeln? Dank dessen haben wir, und das vollkommen und genau, alle Elemente des Konflikts in ihrem Verlauf in Zeit und Raum erkannt. Wir haben genau erkannt, was wir als Ergebnis haben möchten, obwohl wir das alles sehr bildlich dargestellt haben und nicht gerade in der Sprache der Technik! Und letztendlich kamen wir nicht umhin, das Material der Zielscheiben zu untersuchen! Und die Auswahl eines passenden Materials beschränkte sich sofort auf die einzig mögliche Lösung! Und das ist die TRIZ. Jedoch in vereinfachter Form. Wir haben erneut ein wenig modelliert, die gesamte TRIZ durch ein Beispiel ersetzt! Machen wir einfach weiter. Bsp. 14. Pfeiler. Manchmal werden beim Bau von Häusern oder Brücken für das Fundament an verschiedenen Stellen Betonpfeiler mit einer Länge von mehreren Metern in den Boden geschlagen. Dabei wird der obere Teil der Pfeiler, auf den der Hammer schlägt, oft zerstört (Abb. 7.9). Aus diesem Grund können viele Pfeiler nicht tief genug in den Boden geschlagen werden. Dann werden diese Pfeiler abgesägt und daneben zusätzliche eingeschlagen. Das senkt die Produktivität der Arbeiten und erhöht die Kosten. Abb. 7.9
Betrachten wir das Problem nun etwas ausführlicher.
Diagnostik. Beim Ausführen der nützlichen Funktion (Einschlagen der Pfeiler) vollführt der Hammer als „Instrument“ oder allgemeiner gesagt als „Induktor“ auf die Pfeiler als „Erzeugnis“ oder allgemeiner gesagt als „Rezeptor“ eine negative Wirkung (zerstört die Pfeiler), d.h. er übt eine unerwünschte negative Funktion aus. Die hauptsächliche positive Funktion ist: das schnelle Einschlagen eines unbeschädigten Pfeilers in die notwendige Tiefe. Betrachten wir einige Strategien, welche die Suchrichtungen nach der Lösung bestimmen: 1) den ganzen Pfeiler fester und schlagunempfindlicher gestalten; 2) vorhergehend auf den Boden einwirken, um das Eindringen der Pfeiler in die notwendige Tiefe zu erleichtern; 3) eine Technologie entwickeln, mit der auch beschädigte Pfeiler eingeschlagen werden können; 4) den Aufbau des Hammers verändern, damit er die Pfeiler nicht so stark beschädigt; 5) den oberen Teil der Pfeiler vor Zerstörung schützen. Die Analyse der Strategien besteht aus vielen Faktoren und geht dabei über die Grenzen der klassischen TRIZ hinaus. Die Darstellung vereinfachend, setzen wir voraus, dass die ersten drei Strategien zu einer sehr starken Erhöhung der Kosten von Erzeugnissen und Technologie führen würden. Die zwei letzten Strategien sehen da besser aus, da man hoffen kann, dass minimale Veränderungen ausreichen werden, und deshalb konzentrieren wir uns auf sie. Hinzu kommt, dass man die beiden Strategien in einer allgemeineren Formulierung beschreiben kann: gewährleisten, dass der obere Teil der Pfeiler beim Einschlagen nicht zerstört wird.
78
A-Studio: algorithmische Navigation des Denkens
Reduktion. Wir wissen bereits sehr gut, wie das „ideale Endresultat“ formuliert wird. In der TRIZ wurden dafür mehrere Möglichkeiten entwickelt, die in hohem Maße die Strategie der Lösung von Aufgaben bestimmen und Einfluss auf die Geschwindigkeit des Findens und auf ihre Qualität haben. Diese Frage betrachten wir jedoch später. Jetzt gehen wir genauso vereinfacht vor, wie bei den bisherigen Beispielen. Unsere Hauptforderung ist, dass die Pfeiler und auch der Hammer nicht teurer werden, also nur Materialien (Ressourcen) verwendet werden, die „nichts kosten“. Außerdem werden wir erkennen, dass die Stelle am Pfeiler (Rezeptor), welche der von der Kraft her stärksten negativen Einwirkung des Hammers (Induktor) ausgesetzt ist, der „Kopf des Pfeilers“ ist, d.h. sein oberes Ende, und besonders die Fläche, oben am Pfeiler, auf der mit dem Hammer eingeschlagen wird. Und so definieren wir die „operative Zone“, wo sich der Konflikt konzentriert, d.h. gleichzeitig die positive und negative Funktion existiert. Zunächst als Gesamtheit von Rezeptor und Induktor und ihrer Elemente, deren Oberflächen beim Schlag aufeinander treffen. Betrachten wir die Hauptkräfte und Parameter, die in der operativen Zone wirken, und bestimmen wir sie. Je größer z.B. das Gewicht und die Kraft des Hammerschlags ist, desto schneller kann der Pfeiler eingeschlagen werden, jedoch werden dabei die inneren negativen Faktoren größer, die zur Beschädigung und dem Sinken der Zuverlässigkeit führen. Wird der Pfeiler langsam eingeschlagen, so verringert sich das dafür benötigte Gewicht und die Kraft des Schlages mit dem Hammer, es kann dafür aber die Zuverlässigkeit der Pfeiler höher sein. Auf der Basis derartiger „physikalischer Überlegungen“ kann man bereits einige Modelle von Widersprüchen konstruieren (versuchen Sie das auf jeden Fall selbst einmal zu machen, und bleiben Sie nicht nur bei einer Variante, sondern entwickeln Sie z.B. drei oder sogar mehr). Wir wollen hier nur zwei „symmetrische“ Varianten erwähnen, die sich auf die nützliche Hauptfunktion beziehen: Variante 1
die Geschwindigkeit des Einschlagens erhöht sich
Die Kraft des Schlags erhöhen
das Auftreten der negativen Faktoren wird stärker
Variante 2 Die Geschwindigkeit des Einschlagens erhöhen
die Kraft des Schlages muss erhöht werden das Auftreten der negativen Faktoren wird stärker
Etappe 3. Transformation. Wenn wir die A-Matrize für die erste Variante zurate ziehen, kommt man zu folgender Gruppierung von Navigatoren, die als erstrangig empfohlen werden: Was wird besser? – Zeile 22: Geschwindigkeit. Was wird schlechter? – Spalte 14: Schädliche Faktoren des Objekts selbst. Es werden folgende Navigatoren empfohlen (hier in verkürzter Form): 05. „Ausgliedern“ – vom Objekt das störende Teil entfernen oder nur die benötigten Eigenschaften ausgliedern;
7 Disziplin der Kreativität
79
18. „Vermittler“ – ein Zwischenobjekt verwenden, das die Aktion übergibt oder überträgt, zeitweilig das Objekt mit einem anderen Objekt verbinden (leicht zu entfernendes Objekt); 01. „Änderung des Aggregatzustandes“ – Übergänge des Zustands eines Stoffes ausnutzen, oder Änderungen der Flexibilität, Konzentration u.ä.; 33. „Schneller Sprung“ – den Prozess auf eine hohe Geschwindigkeit bringen. Wenn wir die A-Matrize für die zweite Variante zurate ziehen, kommt man zu einer etwas anderen Gruppierung von Navigatoren: Was wird besser? – Zeile 30: Kraft. Was wird schlechter? - Spalte 14: negative Faktoren des Objekts selbst. Es werden folgende Navigatoren empfohlen (hier in verkürzter Form): 11. „Entgegengesetzt“ – anstelle der Funktion die durch die Bedingungen der Aufgabe vorgegeben ist, wird eine entgegengesetzte Funktion ausgeführt oder ein beweglicher Teil eines Objekts wird unbeweglich gemacht und ein unbeweglicher beweglich. 12. „Lokale Eigenschaft“ – verschiedene Teile müssen verschiedene Funktionen erfüllen, oder – jedes Teil des Objekts muss Bedingungen haben, die seiner Funktion am besten entsprechen. 26. „Phasenübergänge“ – Erscheinungen ausnutzen, die bei Phasenübergängen entstehen, z.B. Wärmeaufnahme oder Wärmeabgabe; 18. „Vermittler“ – ein Zwischenobjekt verwenden, das die Aktion übergibt oder überträgt, zeitweilig das Objekt mit einem anderen Objekt verbinden (leicht zu entfernendes Objekt). Es ist leicht zu erkennen, dass die Navigatoren 05. „Ausgliedern“ und 18. „Vermittler“ aus der ersten Navigatorensgruppe zusammen mit den Navigatoren 11. „Entgegengesetzt“, 12. „Lokale Eigenschaft“ und 18. „Vermittler“ (zweimal!) aus der zweiten Gruppe deutlich darauf hinweisen, dass in der operativen Zone ein zusätzliches Objekt in Form eines Vermittlers zwischen Hammer und Pfeilern eingebracht werden muss! Aus Zeitgründen werden wir andere Möglichkeiten hier nicht analysieren. Bei einer geringen Anzahl der Pfeiler wird manchmal ein Holzklotz auf das obere Ende des Pfeilers befestigt (Abb. 7.10), worauf der Hammer schlägt bis der Klotz zerstört ist. Verifikation. Die Holzklötze gehen schnell entzwei, wobei die Pfeiler auch noch vor der Zerstörung der Klötze durch das ungleichmäßige Zusammendrücken des Stoffes, aus dem die Klötze sind (Holz), beschädigt werden. Das Problem ist also noch lange nicht gelöst! Vielleicht sollte es jetzt von seiner eigentlichen Basis betrachtet werden? Und sollte nicht ein neues technisches System untersucht werden, das jetzt auch den Vermittler einschließt? Ja, genauso sollte man vorgehen. Und dabei gelangen wir zur Wiederholung des Zyklus des Meta-ARIZ! Wobei man den Vermittler als Teil des Pfeilers betrachten sollte, z.B. als seinen „Kopf“. Richtig ist jedoch, ihn als Teil eines Instruments zu betrachten! Der Pfeiler an sich soll sich doch überhaupt nicht verändern! Daraus folgt, dass der Vermittler ein zusätzliches Detail am Hammer werden muss! Später werden wir sehen, dass meistens der Induktor verändert wird, und das ist eine der grundlegenden Regeln der TRIZ.
80
A-Studio: algorithmische Navigation des Denkens
Abb. 7.10
Bei der Analyse des Verlaufs der Lösungssuche haben Sie bestimmt bemerkt, dass es in vielen Fällen lange nicht so einfach ist, die A-Navigatoren zu interpretieren, wie es von mir anhand speziell vorbereiteter Konstruktionen dargestellt wurde. Sie haben recht: man braucht dafür auch Erfahrungen und gute Kenntnisse physikalischer Erscheinungen (technischer Effekte) und weit reichendes professionelles Wissen. Und letztendlich ist gute Stimmung (manchmal aber auch schlechte!) genauso wichtig. Und außerdem... Das soll erst einmal reichen! Umso mehr, da wir ja weiterkommen wollen! Und das verbleibende „Außerdem“ eignen Sie sich mit der Zeit und bestimmten Erfahrungen bei der Anwendung der TRIZ ganz bestimmt noch an.
Diagnostik +. Denken wir daran, dass der Vermittler nun auch zu einem Induktor geworden ist, ähnlich wie der Hammer, was die Einwirkung auf die Pfeiler betrifft. Um die vorherigen Erörterungen aus dem ersten Zyklus nicht zu wiederholen, müssen wir die Strategie der weiteren Suche ändern und auf eine tief greifendere Analyse der Physik des Prozesses richten! Es ist klar, wenn z.B. das Material des Vermittlers dasselbe ist wie das des Hammers, die Pfeiler davon wenig haben. Wenn das Material des Vermittlers dem Material der Pfeiler ähnlich ist (Beton), wird es genau so zerstört werden wie die Pfeiler, und das sogar schneller wegen der geringeren Masse. Des weiteren: die Geschwindigkeit der Zerstörung des Vermittlers hängt von der Art seiner Installation auf dem „Kopf“ des Pfeilers ab – die kleinste Verkantung beschleunigt die Zerstörung des Vermittlers! Das passiert, da der Schlag des Hammers und die Wechselwirkung der Kräfte der Auflagefläche des Vermittlers mit der Oberfläche des „Kopfes“ des Pfeilers nicht auf einer glatten Fläche erfolgt, sondern an einzelnen Punkten und Linien, an denen sich die Energie des Schlags konzentriert, was zu einer Vielzahl von Brüchen führt. Wie kann man jedoch den Vermittler festhalten, damit er ohne Spiel auf dem Kopf der Pfeiler steht? Das ist eine komplizierte Aufgabe. Reduktion +. Varianten von Widersprüchen zu konstruieren, wie in der Etappe 2 scheint wenig aussichtsreich, da ähnliche Modelle zu einer einfachen Wiederholung des vorherigen Zyklus und auf das gleiche Ergebnis hinauslaufen. Das bringt also nichts! Formulieren wir nun also die Versionen des Idealen Endresultats: 1. der Vermittler verteilt die Energie des Schlags gleichmäßig auf die gesamte Oberfläche des Pfeilers (Verbesserung der Arbeitsweise); 2. der Vermittler wird zerstört … und reproduziert sich augenblicklich nach jedem Schlag! Die Idealvorstellung! 3. der Vermittler ... (machen Sie bitte selbst weiter!) Jetzt verschärft sich der Widerspruch ins Extreme: Variante 3 Der Vermittler
muss vorhanden sein, damit die Energie des Schlags auf die Oberfläche des Kopfes des Pfeilers übertragen werden kann soll nicht vorhanden sein, damit ... er nicht entzwei gehen kann
7 Disziplin der Kreativität
81
Formulieren wir das ideale Ergebnis strikt den TRIZ-Empfehlungen entsprechend: die operative Zone reproduziert selbst den Vermittler! Transformation +. Lassen sie uns gemeinsam folgendermaßen weiter nachdenken. Stellen wir uns vor, dass der Vermittler aus einer gewaltigen Anzahl kleiner Teilchen besteht (und so ist es auch im großen und ganzen), Teilchen, die kleinen Männchen ähneln, die so klein sind, dass wir sie nur noch als Figürchen sehen. Aber diese kleinen Figürchen sind in der Lage gemeinsam all das zu tun, was wir benötigen! Sie können jedes ideale Ergebnis verwirklichen! Außerdem kosten sie nichts. Ihre Anzahl lässt sich leicht verringern oder vergrößern. Sie können jedes beliebige magnetische Feld modellieren, zusammen jede beliebige Form annehmen, fest oder flüssig sein, Gewicht haben oder nicht, unsichtbar sein, Laute von sich geben usw. ohne Einschränkungen! Und bei all dem bleiben sie einfach nur Figürchen, die von unserer Phantasie erschaffen wurden. Deshalb ist es auch nicht schlimm, diese Figürchen zu reiben oder schweren Prüfungen auszusetzen, wie z.B. auf sie mit einem Hammer einzuschlagen! Diese Figürchen könnten alle Unebenheiten auf der Oberfläche der Köpfe der Pfeiler ausfüllen (übrigens auch auf der Arbeitsoberfläche des Hammers), und so würde sich die Energie des Schlages auf eine größere Fläche verteilen! Dann, wenn der Schlag sie getroffen hat, verbinden sich die Figürchen erneut zu einer durchgängigen Schicht, die den gesamten Kopf des Pfeilers glatt bedecken, und sie ... warten ganz ruhig auf den nächsten Schlag! Können Sie sich schon das reale Material vorstellen, das über diese beschriebenen Eigenschaften verfügt? Alles klar! Der Vermittler muss aus Sand gemacht werden! Sand (insgesamt nur ein bis zwei Eimer) er wird in einen Behälter gefüllt, der auf den Kopf der Pfeiler gestülpt wird (Abb. 7.11). Der Behälter ist länglich, und in ihm bewegt sich der Hammer. Sand kostet kaum etwas, es gibt ihn meist ausreichend im Boden, wo Baugruben für Fundamente ausgehoben werden. Letztendlich, braucht man ja auch nicht all zu viel davon, deshalb wäre es auch nicht teuer, ihn in der erforderlichen Menge anfahren zu lassen. Verifikation +. Die Lösung ist effektiv, da sie zuverlässig funktioniert und keine größeren Ausgaben nach sich zieht. Das Lösungsprinzip – Zerteilen des Objekts bis hin zu Teilchen mit bestimmten Eigenschaften verfügt über einen gewaltigen methodischen „Super-Effekt“: man kann es weiterentwickeln und Abb. 7.11 auf andere Objekte übertragen mit ähnlichen aber auch durchaus anderen Widersprüchen! Die Lösung lässt sich letztendlich fortführen! Wir können die operative Zone erweitern z.B. bis auf die Größe des gesamten Körpers des Pfeilers. Wir können ein solches ideales Resultat formulieren, bei dem der Pfeiler prinzipiell nicht zerstört werden kann, weil er nicht vorhanden ist! Er könnte aus dem Boden wachsen! Wie z.B. ein Baum. Der müsste nicht in den Boden geschlagen werden. Haben Sie keine Lust Multimillionär mit der Erfindung von ... neuen Pfeilern zu werden? Wenn Sie meinen, ich würde diese Frage polemisch zuspitzen, so glauben Sie mir, ich bin weit davon entfernt.
82
A-Studio: algorithmische Navigation des Denkens
Jetzt können wir die Hauptkonzepte zusammenfügen und eine verallgemeinerte Version des „Meta-Algorithmus des Erfindens“ (Abb. 7.12) aufstellen. Dieses Schema beinhaltet auch Operationen des strategischen Niveaus, die in die Etappe Diagnostik und Operationen des taktischen Niveaus, die in die Etappe der Reduktion aufgenommen wurden. Und das widerspiegelt die oft in der Praxis auftretende Verbindung von Operationen verschiedener Niveaus im einheitlichen Prozess der Entwicklung einer Lösung. Als Abschluss wollen wir feststellen, dass vom Wesen her die Etappen Diagnostik und Reduktion Prozeduren der Analyse des Problems sind und die Etappen Transformation und Verifikation – die Synthese der Lösungsidee beinhalten. Der Meta-Algorithmus des Erfindens bildet das Hauptnavigationssystem bei der Lösung eines beliebigen Problems beim Erfinden. Alle Prozeduren des Schemas Meta-Algorithmus (Abb. 7.12) muss man sich nach und nach einprägen und bei der Lösung neuer Probleme automatisch in der Reihenfolge des Schemas anwenden. Letztendlich stützen sich alle Prozeduren auf Datenbanken (im Zentrum der Abbildung anschaulich dargestellt), deren Grundlage die ANavigatoren bilden, mit denen wir uns jetzt beschäftigen werden. Der Meta-ARIZ steht dem „4-Etappen-Schema der Kreativität“ nach Dewey besonders nahe. Die Aktionen in der Etappe Diagnostik können eigentlich als „Kollision mit dem Versuch, Elemente und Verbindungen, die zum Widerspruch führen“ zu erkennen, interpretiert werden. Die Aktionen in der Etappe der Reduktion haben als eines der Hauptziele – die „Eingrenzung der Suchzone (Lokalisation des Problems)“. Die Aktionen in der Etappe Transformation entsprechen praktisch genau dem, was Dewey als „Entstehung einer möglichen Lösung: die Bewegung der Gedanken von dem, was gegeben ist zu dem, was fehlt, die Herausbildung einer Idee, einer Hypothese“, bezeichnet. Letztendlich beinhaltet die Etappe Verifikation „eine rationale Bearbeitung einer Idee und die logische Entwicklung der Hauptthese“. Natürlich unterscheidet sich der Konstruktivismus des Meta-ARIZ radikal von den erwähnten „Schemata der Kreativität“, unter anderem auch vom Schema von Dewey. Aber auch hier war ohne Zweifel die intellektuelle und geistige „Genesis“ berücksichtigt worden. Und deshalb ist auch die Verbindung dieser so unterschiedlichen Zeitabschnitte so interessant! Der Meta-ARIZ wurde als Verallgemeinerung und Vereinfachung (Befreiung vom Überflüssigen) der Inhalte aller „Generationen“ des ARIZ von Genrich Altschuller aufgestellt. Und dennoch können die Kenner der TRIZ feststellen, dass der Meta-ARIZ von seiner Struktur her dem frühesten und „klarsten“ ARIZ aus 1956 und 1961 sehr nahe steht (s. Abb. 4.5). Man kann sagen, dass der MetaARIZ – eben diese ersten ARIZ verkörpert, nur eben wegen des halben Jahrhunderts, die zwischen beiden liegen, in einer neuen Redaktion unter Berücksichtigung des neuen Niveaus systemtechnischer Kenntnisse! Und natürlich unterscheidet sich die Gestaltung der Etappen des Meta-ARIZ grundlegend von der Gestaltung der erwähnten „Schemata der Kreativität“ und basieren auf den Instrumentarien der TRIZ. Der Ursprung des ARIZ und das Erbe des TRIZKonstruktivismus machen den Meta-ARIZ zu einer äußerst komfortablen Struktur sowohl für das Studium der Methodologie der TRIZ, als auch für die Lösung praktischer Aufgaben.
7 Disziplin der Kreativität
83
Der Meta-Algorithmus des Erfindens bildet die Grundlage für ein Navigationssystem bei der Lösung beliebiger Probleme beim Erfinden. Man muss sich nach und nach alle Prozeduren des Schemas „Meta-Algorithmus“ (Abb. 7.12) bei der Lösung neuer Probleme einprägen und später automatisch in der im Schema aufgeführten Reihenfolge anwenden.
MODELL – RAUM ( Sprache der CROST / TRIZ )
SYNTHESE FUNKTIONAL-IDEALES MODELLIEREN Reduktion
Transformation
Formulierung des idealen Modells
Auswahl der Navigatoren
Präzisierung der operativen Zone und operativen Ressourcen
Interpretation der Transformationsmethoden in Bezug auf die Ziele, Modelle und Ressourcen
Reduktion der technischen und physikalischen Widersprüche
Generieren von Veränderungen in Richtung des idealen Modells
Auswahl der Lösenstaktik
Knowledge-Base Diagnostik
Verifikation
Definition der Entwicklungsziele und Probleme
Bewertung der Widerspruchslösung
Definition der operativen Zonen
Bewertung der Effektivität der Lösung
Erstellung der Ausgangsmodellen der Widersprüche
Bewertung der Möglichkeiten einer Weiterentwicklung der Lösung
Strategische Auswahl der Richtungen des Lösens
ENTWICKLUNGSZIELE
Zyklus
IDEE
TOTAL SYSTEM DEVELOPMENT
ANALYSE OBJEKT – RAUM ( Sprache der Anwendung ) CROST / TRIZ – Seminar von Prof. Dr.Dr.Sc.techn. M.Orloff
Abb. 7.12. Verallgemeinertes Schema Meta-Algorithmus des Erfindens
84
A-Studio: algorithmische Navigation des Denkens
8 Operative Zone 8.1 Epizentrum des Problems Vor dem Studium dieses Abschnitts ist es nützlich, alle 14 vorhergehenden Beispiele des Re-Inventings durchzuarbeiten. Gehen wir also davon aus, dass Sie sich gut an den Inhalt dieser Beispiele erinnern. Dann kommen wir nun also zu einem der zentralen Begriffe der klassischen TRIZ, der operativen Zone. Die operative Zone (OZ) ist die Gesamtheit der Komponenten eines Systems und seiner Umgebung, die unmittelbar mit einem Widerspruch verbunden ist. Bildhaft gesagt, ist die operative Zone das Epizentrum des Problems. Der Einfluss des Problems kann wie bei jedem Konflikt, nicht nur an konkreten Elementen, sondern auch am ganzen System sowie auch in der Umgebung des Systems spürbar sein. Genau so, wie auch die Mittel für die Lösung des Problems letztendlich aus dem System selbst oder der Systemumgebung gewonnen werden. Diese Verbindungen lassen sich gut in einem Schema (Abb. 8.1) darstellen. Die Systemumgebung stellt an das System Forderungen, welche die Richtung Systemumgebung seiner Entwicklung bestimmen. Diese Forderungen können mit den Möglichkeiten des Systems in Konflikt treten, oder einen Konflikt zwischen Teilen und EleOZ menten des Systems hervorrufen. Die Eigenschaften, die im Konflikt stehen, System haben bestimmte Träger, d.h. konkrete Elemente des Systems oder sogar das ganze System. Manchmal können die Abb. 8.1. Struktur der Beziehung der OZ Teilnehmer des Konflikts Elemente des mit dem System und der Systemumgebung Systems und seine Umgebung sein. Actors sind die Hauptelemente der OZ, welche die Träger der konkreten widersprüchlichen Eigenschaften sind. Induktor ist ein Actor, der auf einen anderen Actor einwirkt (Rezeptor) in Form einer Energie-, Informations- oder Stoffübertragung und eine Veränderung oder Aktion des Rezeptors initiiert. Rezeptor ist ein Actor, der die Einwirkung des Induktors empfängt und unter dieser Einwirkung sich verändert oder in Aktion tritt. Innerhalb der OZ kann sowohl ein Induktor als auch Rezeptor nicht in offener Form vorhanden sein. Oder es kann zwei Induktoren oder Rezeptoren geben. Es treten Strukturen auf, wo Induktor und Rezeptor in Abhängigkeit von den Zielen der Problemanalyse oder den Zielen der Lösungssynthese ihre Rollen tauschen können. Die OZ soll so beschrieben werden, dass eine Struktur mit einer minimalen Anzahl von Elementen entsteht, d.h. ein Modell aus einem Induktor und einem Rezeptor. Ein klassisches Beispiel ist die Wechselwirkung eines Instruments und eines Erzeugnisses (Details). In der klassischen TRIZ wurden sogar die
8 Operative Zone
85
Hauptelemente der OZ bedingt als Instrument und Erzeugnis benannt, obwohl ihre funktionellen Rollen oft diesen Bezeichnungen nicht entsprachen. Die hier eingeführten Termini Induktor und Rezeptor sind allgemeiner und neutraler in Bezug auf den Inhalt physikalischer Aktionen der Elemente der OZ. Betrachten wir nun die Elemente der OZ in den bereits vorgestellten Beispielen. Aus Bsp. 1. Bei der Aufgabe zur Entwicklung der Feder als Element, welches den Austritt der Tinte aus dem Schreibgerät reguliert, würde im Verhältnis zur OZ die Feder als Induktor auftreten, der auf den Tintenstrahl (Rezeptor) einwirkt, der durch die Rille der Feder läuft. Zur OZ kann auch die umgebende Atmosphäre (Systemumgebung) gehören, wenn wir den Einfluss des atmosphärischen Drucks auf den Fluss der Tinte entlang der Rille in der Feder betrachten. Wir könnten die Geschwindigkeit berücksichtigen, mit der die Tinte aus dem Korpus des Schreibgerätes in die Rille der Feder gelangt, dann würde auch der restliche Teil des Schreibgerätes (System) zur OZ gehören. Gefordertes Resultat: Herauslaufen der Tinte aus der Spitze der Feder. Die Geschwindigkeit wird dabei durch die Kraft des Drucks auf die Feder reguliert. Widerspruch: die Tinte soll „schnell fließend“ sein, damit sie leicht durch die Rille der Feder gelangen kann, die Tinte soll aber auch nicht „schnell fließend“ sein, damit sie nicht ungewollt aus dem Schreibgerät herauslaufen kann. Führende Ressourcen für die Lösung des Problems: Form der Rille und Federeigenschaften des Materials der Feder für das Funktionieren der Rille als regulierendes „Ventil“ oder „Hahn“; der atmosphärische Druck, Temperatur und Feuchtigkeit, hygroskopische Eigenschaften des Papiers (oder eines anderen Materials, auf dem man schreibt), Kraft des Drucks auf das Schreibgerät. Führende Transformationen: Dynamisation (Rille der Feder mit veränderlicher Größe), Stoff in mehreren Aggregatzuständen (Federeigenschaften), Schaffung eines Energiewegs vom Schreibgerät über den Körper des Schreibgeräts und die Feder zum Papier, um mit der Kraft des Drucks auf das Öffnen der Rille in der Feder einzuwirken (dieser Weg findet seine Fortsetzung hin zu einer geschlossenen Kontur über den Tisch, den Boden, den Stuhl und den Körper des schreibenden Menschen bis zur Hand). Lehrvariante 1: für eine genauere Analyse könnte es nötig werden, die OZ zu verengen und die Rille der Feder selbst zum Induktor zu machen. Eine solche Interpretation wäre sinnvoll, um z.B. Profil und Parameter der Rille der Feder zu untersuchen. Dabei würden dann z.B. solche Teile der Feder wie die Stelle der Befestigung am Korpus des Schreibgeräts, die allgemeine Form der Feder und andere Komponenten keine besondere Rolle mehr spielen. Jedoch könnten wir bei dieser Aufgabe die Eigenschaften des Papiers berücksichtigen und das Papier als Komponente in die OZ einbeziehen (am ehesten als zweiten Rezeptor, auf dem die Feder eine Tintenspur hinterlässt). Hier ist die ganze Feder das System für die Rille, und alle anderen Objekte gehören dann zur Systemumgebung der Feder. Lehrvariante 2: es kann die Aufgabe der Wechselwirkung allein der Tinte mit dem Papier betrachtet werden, dann ließe sich durchaus vorstellen, dass die OZ nur aus der Tinte als Induktor und aus dem Papier als Rezeptor, mit der Beschreibung ihrer Eigenschaften und widersprüchlichen Wechselwirkungen, besteht.
86
A-Studio: algorithmische Navigation des Denkens
Aus Bsp. 4. Bei der Aufgabe für die Entwicklung eines Flugzeugs mit vertikalem Start und vertikaler Landung könnte man in die OZ das Flugzeug selbst (System – Rezeptor), den Flugzeugmotor (erster Induktor – Teil des Systems) und die Luft (zweiter Induktor – Systemumgebung) einbeziehen. Beim Start muss der Motor mit erhöhter Kraft arbeiten, um das Flugzeug genau vertikal nach oben zu befördern. Dabei startet und landet das Flugzeug wie eine Rakete, die sich nicht mit den Flächen der Flügel auf die Luft stützen kann. Deshalb entstanden auch Probleme bei der Beständigkeit in der Orientierung des Flugzeugkörpers in der Luft, was zu Unfällen beim Start und besonders bei der Landung führte. Wobei es noch schwieriger ist, die Arbeitsweise des Motors zu steuern und aufrecht zu erhalten, da es dem Piloten sehr schwer fällt, den Landeplatz einzusehen. Er bewegt sich nach unten, muss aber nach oben sehen, weil er praktisch auf dem Rücken liegt (s. Abb. 6.2). Gefordertes Resultat: neue Funktion – vertikaler Start und vertikale Landung. Widerspruch: vertikale Orientierung des Flugzeugkörpers koordiniert mit der Richtung bei Start und Landung, lässt sich jedoch schwer steuern. Führende Ressource für die Lösung des Problems: im System enthaltene, Veränderung der Konstruktion. Führende Transformation: Dynamisation (drehbare Motoren oder Flügel). Aus Bsp. 10. Entsprechend der Aufgabenstellung am Anfang, reicht es aus, das Wasser (erster Induktor – Teil des Gießsystems), den Boden am Fuß der Palme (Rezeptor – Teil des Gießsystems) und die Luft (Systemumgebung – zweiter Induktor) in die OZ einzubeziehen. Beachten Sie, nicht die Sonne, sondern die Luft, deren Temperatur und andere Eigenschaften den unmittelbaren Einfluss auf den Zustand des Bodens am Fuß der Palme haben. Ebenso braucht man nicht die Palme als solche als Eigenschaft des Systems und Teilnehmer der OZ betrachten, da sie am Konflikt nicht unmittelbar beteiligt ist! Auf die Palme wirken nur Folgen der schlechten Organisation des Gießens, die neue Lösung soll eben die Palme an sich schützen, sie ist aber in dieser Situation kein aktiver Actor! Sehen Sie sich dieses Beispiel genau an. Ideales Resultat: die OZ gewährleistet selbst das lang anhaltende Begießen der Palme! Widerspruch: Wasser soll da sein (am Fuß der Palme zum Feuchthalten), Wasser soll aber auch nicht da sein (da es dort schnell verdunstet – unter normalen Bedingungen). Führende Ressource für die Lösung des Problems: innerhalb des Systems und innerhalb der OZ – Wasser in zwei Aggregatzuständen mit unterschiedlicher Temperatur am Anfang und am Ende. Führende Transformation: Übergang auf das Mikroniveau des Stoffes und Verwendung eines physikalisch-technischen Effekts – Übergang des Wassers aus dem festen in den flüssigen Zustand. Aus Bsp. 12. Entsprechend der allgemeinen Aufgabenstellung reicht es aus, den Likör und das Fläschchen in die OZ einzubeziehen und nur ihre Wechselwirkung beim Erreichen des idealen Endresultats zu betrachten! Das ist ein recht seltener Fall, wenn man das Erzeugnis selbst verändern kann. Übrigens, ja eigentlich nicht das Erzeugnis selbst, sondern den Prozess der Herstellung. Aber durch die
8 Operative Zone
87
Veränderung seiner Komponenten. Ursprünglich wirkt der feste Schokoladenfläschchen-Induktor auf den flüssigen Likör-Rezeptor, indem er ihn ins Innere durch den Hals aufnimmt. Bei der neuen Idee ist es umgekehrt. Der gefrorene Likör-Fläschchen-Induktor dient als Form, auf die der flüssige Schokoladen-Rezeptor gegossen wird. Ideales Resultat: die OZ gewährleistet selbst die Bildung des Fläschchens zusammen mit ihrem Inhalt! Widerspruch: der Likör soll da sein (innerhalb des Schokoladenfläschchens) und der Likör soll nicht da sein (da der ganze Prozess kompliziert ist). Führende Ressource für die Lösung des Problems: innerhalb der OZ – besteht der Likör und die Schokolade in zwei Aggregatzuständen bei unterschiedlicher Anfangs- und Endtemperatur; das System betreffend – Veränderung der Anordnung der Operationen und Ersatz früherer Elemente für die „Kopieform“ in Gestalt der gefrorenen Likörmasse in Fläschchenform; außerhalb des Systems – zusätzliche Energie und Formen für das Einfrieren des Likörs, zusätzliche Formen um einen Hals an der Flasche zu erhalten. Führende Transformationen: Übergang auf das Mikroniveau des Stoffs und Verwendung eines physikalisch-technischen Effekts (Ausnutzung der zwei Aggregatzustände des Stoffs), das Prinzip des Kopierens (s. Prozess des Re-Inventings im Beispiel 12). Aus Bsp. 14. Eine richtige TRIZ-Diagnostik der ursprünglichen Aufgabenstellung erfordert, in die OZ nur den Pfeilerkopf einzubeziehen, noch genauer, nur die Oberfläche des Pfeilerkopfes (Rezeptor), und den Hammer (Induktor). In der traditionellen TRIZ-Beschreibung war es schwierig, diesen Teil des Pfeilers als Erzeugnis zu bezeichnen, weil wir unter einem Erzeugnis nur den gesamten Pfeiler verstehen konnten. Doch eigentlich braucht man nicht den ganzen Pfeiler zu betrachten! Für das Verständnis der Physik dieses Prozesses muss die Diagnostik nur im Bereich der Oberfläche des Pfeilerkopfs durchgeführt werden. Dort befindet sich die OZ. Der Rezeptor wird schnell unter der Einwirkung des Induktors zerstört, wegen der ungleichmäßigen Verteilung der Energie des Schlags auf die Oberfläche des Pfeilerkopfs. Das liegt natürlich auch an der Schlagempfindlichkeit des Materials des Pfeilers, jedoch kann das Material des Pfeilers (Erzeugnis!) aufgrund der Bedingungen der Aufgabe nicht verändert werden. In der ersten Phase waren folgende Aspekte beteiligt. Ideales Resultat: den Pfeilerkopf ganz erhalten und Ressourcen außerhalb des Pfeilers benutzen! Widerspruch: die Hammerschläge sind notwendig, um den Pfeiler einzuschlagen, jedoch zerstören sie den Pfeiler von oben. Führende Ressource: das System und die OZ betreffend – Veränderung des Instruments. Führende Transformationen: Prinzip des Vermittlers (Navigator Nr. 18) – Einsatz einer Zwischenlage zwischen Hammer und Pfeilerkopf; Navigator Nr. 13 „Billigere Nichtlanglebigkeit als Ersatz für teure Langlebigkeit“ – der Vermittler, die Zwischenlage, besteht aus Holz (um die Beschreibung des Beispiels 14 abzukürzen, haben wir diesen Navigator nicht in die Erörterung einbezogen, sondern verwenden es hier nur als wichtige Zusatzerläuterung).
88
A-Studio: algorithmische Navigation des Denkens
Mit der Zeit wurde diese Lösung auch nicht mehr als ausreichend effektiv befunden (nicht billig genug). An der zweiten Phase der Lösung waren folgende Aspekte beteiligt. Verstärktes ideales Resultat: der Vermittler soll „dauerhaft“ sein und „nichts kosten“! Widerspruch: es soll kein Vermittler da sein (da er zerstört wird), aber ein Pfeiler soll da sein (aufgrund der Forderungen der nützlichen Hauptfunktion des technologischen Prozesses). Führende Ressource: innerhalb der OZ – Veränderung des Materials des Instruments, (der Vermittler wurde auch zu einem Instrument, das unmittelbar auf das Erzeugnis einwirkt – auf den Pfeiler!); das System betreffend – Veränderung des Instruments, außerhalb des Systems – Verwendung billigen Materials (Sand) auf dem Bauplatz. Führende Transformationen: Verstärkung der Anwendung des Navigators Nr. 13 „Billigere Nichtlanglebigkeit als Ersatz für teure Langlebigkeit“ – Suche nach einem noch billigeren Material für den Vermittler (Zwischenlage), Modellierung des Prozesses durch die Methode des Modellierens mit kleinen Figürchen und der faktische Übergang zum Navigator Nr. 3 „Zerteilen“, Punkt c) den Grad der Zerteilens (Zerkleinerung) des Objekts erhöhen – Schlussfolgerung – Anwendung einer Sandschicht als Vermittler. Die hier durchgeführte Untersuchung von fünf Lösungen, berechtigt uns, eine recht starke Verallgemeinerung vorzunehmen. Der Lösungsprozess in der klassischen TRIZ richtet sich auf die Transformation der OZ und stützt sich auf folgende Schlüsselkonzepte (Abb. 8.2): - das funktional ideale Modell (FIM) ist die Vorstellung darüber, wie ein System nach der idealen Lösung eines Problems funktionieren soll; - Widerspruch – ist das Modell eines Systemkonflikts, welches die unvereinbaren Anforderungen an ein System widerspiegelt; - Transformation – ist ein Modell für Veränderungen im System, die für die Beseitigung des Widerspruchs und das Erreichen des FIM notwendig sind; - Ressourcen – das ist ein Modell mit verschiedenen Aspekten für Systemeigenschaften, welches z.B. den Zweck eines Systems, seine Funktionen, den Bestand seiner Elemente und die Struktur der Verbindungen zwischen den Elementen, Informations- und Energieströme, Materialien, Form und räumliche Lage, zeitliche Parameter der Funktion, Effektivität und spezielle Qualitätskennziffern bei der Funktion charakterisiert. Diese Aspekte haben Wissen akkumuliert, das in der klassischen TRIZ als fundamental gilt und den wichtigsten Kern für die Kreativität darstellt, eben das gesamte instrumentelle und kognitive System, das vom Autor die Bezeichnung A-Studio erhielt. (Das entspricht den bereits eingeführten Bezeichnungen, z.B. ANavigatoren und meiner Systematisierung, die im Abschnitt 20.3 CROST und PentaCORE: Fünf Kerne der Kreativität erläutert wird). Und genau diese Aspekte des klassischen A-Studios werden sich auch weiterhin im Mittelpunkt unserer Aufmerksamkeit befinden.
8 Operative Zone
89
Ideales Modell Transformationen
Ressourcen
Widerspruch
Abb. 8.2. Struktur der Wechselwirkung der Schlüsselkonzepte der TRIZ
8.2 Ressourcen Im Zentrum der Abb. 8.2 befinden sich die „Ressourcen“. In der traditionellen TRIZ gehörte der Begriff Ressourcen, vom Wesen her, nur zu einem technischen System und der entsprechenden Systemumgebung. Dabei ging man davon aus, dass ein „Problem immer dann entsteht, wenn für das Erreichen der geforderten funktionalen Eigenschaft eine bestimmte Ressource nicht vorhanden ist. Insgesamt gesehen ist das auch so. Heute jedoch müssen wir den Prozess der Entwicklung einer Erfindung breiter und objektiver betrachten. Dabei muss von der vorrangig technisch-zentrierten Sichtweise der TRIZ abgegangen werden, zugunsten einer auf den Menschen gerichteten, naturwissenschaftlichen und integrierten. Genau in diese Richtung orientiert sich die CROST (s. Abschn. Entwicklung der TRIZ). In der klassischen TRIZ wurde in der Anfangszeit ihrer Entwicklung in der Praxis auf Folgendem beharrt: anhand der TRIZ-Modelle und dem ARIZ, sowie unter Berücksichtigung der Gesetzmäßigkeiten der Systementwicklung, muss eine Erfindung in etwa so gemacht werden, als würde man eine Mathematikaufgabe lösen. Jedoch wurde mit den Jahren immer klarer, dass im Mittelpunkt des „Modells“ der Entwicklung von Erfindungen immer noch der Mensch steht. Der Mensch mit seiner individuellen Organisation des Denkens, seiner Motivation, seinen Emotionen, seinen Charaktereigenschaften und seiner Persönlichkeit insgesamt. Deshalb müssen die Ideen der klassischen TRIZ in ihrer modernen Redaktion so dargestellt werden, dass sie die Möglichkeit und Notwendigkeit der Einbeziehung allgemeinerer Theorien berücksichtigen, innerhalb derer die TRIZ zu einem grundlegenden Bestandteil werden kann. Das Schema in Abb. 8.3 unterscheidet sich von dem Schema in Abb. 8.1 darin, dass hier der „Problemlöser“, der Mensch, eine zentrale Rolle spielt. Man kann definitiv sagen, dass der Erfolg bei der Lösung eines Problems von zwei Ressourcenarten bestimmt wird: von den Ressourcen des Problems (des Systems und seiner Umgebung) und den Ressourcen des Problemlösers. Es ist klar, dass es schwierig und auch unnütz ist, das eine vom anderen zu trennen, da ja alles gemeinsam einem einheitlichen Ziel dient, und zwar der Steigerung der Effektivität und der Verkürzung der Zeit für die Lösung eines Problems durch den Menschen.
90
A-Studio: algorithmische Navigation des Denkens
Welt
System
Mensch
Problem
Abb. 8.3. Systembeziehungen des Menschen als „Problemlöser”
Die TRIZ hat konstruktive Modelle für die Lösung von Problemen ausgehend „vom technischen System“ angeboten. Außerdem begründete die TRIZ auch Verfahren der aktiven Unterstützung für den Problemlöser unter Berücksichtigung positiver und negativer Denkstereotypen. Dennoch gibt es bis heute keine wirkliche Theorie der Lösung von Problemen mit konstruktiven Modellen „von Seiten der Problemlöser“. Die in diesem Lehrbuch vertretene Position besteht jedoch genau darin, sich eben nicht auf einseitige Konzeptionen zu beschränken. Jedoch habe ich die Hoffnung, dass in Zukunft die Grundlagen der TRIZ gemeinsam mit den Grundlagen der Mathematik, der Rechtschreibung und Computertechnik erlernt und als ebenso nützlich für jeden Menschen angesehen werden. Zunächst aber wollen wir die Ressourcenmodelle aus der Sicht der TRIZ untersuchen. Vor allem empfiehlt die TRIZ bei der Lösung von Aufgaben daran zu denken, dass in jedem System alle Teile direkt oder indirekt miteinander zu einer Einheit verbunden sind, und dass jedes System, Subsystem oder sogar jedes Element als abstrakte Maschine dargestellt werden kann (Abb. 8.4). Jedes technische System hat eine verallgemeinerte Struktur, zu der eine Energiequelle (EQ), eine Transmission (TR), ein Arbeitsorgan (AO), ein Steuerungssystem (STSY) und Konfigurator (KF) in Form einer Konstruktion gehört, die alle Komponenten miteinander verbindet. STSY
EQ
TR
AO
KF
Abb. 8.4. Abstrakte Maschine
In der TRIZ werden folgende Eigenschaften sich entwickelnder Systeme postuliert: 1. Ein technisches System ist dann minimal-vollständig, wenn in seiner Umsetzung alle Komponenten einer abstrakten Maschine vorhanden sind;
8 Operative Zone
91
2. Ein technisches System ist dann minimal arbeitsfähig, wenn alle Komponenten seiner abstrakten Maschine einzeln und gemeinsam minimal arbeitsfähig sind; 3. Die Entwicklung jedes technischen Systems beginnt beim minimal arbeitsfähigen Kern; 4. Probleme der Entwicklung eines technischen Systems sind mit der ungleichmäßigen Entwicklung ihrer Komponenten verbunden und können zeitlich und lokal durch die Vervollkommnung von Komponenten und Verbindungen zwischen ihnen beseitigt werden, oder durch ständigen und totalen Ersatz des Systems durch ein anderes mit den gleichen Funktionen. In der TRIZ werden folgende Prinzipien der Entwicklung eines minimalarbeitsfähigen Kerns postuliert: 1. Alle Komponenten müssen miteinander zu einem einheitlichen Ganzen verbunden sein, das zumindest über eine Systemeigenschaft verfügt, die einzelne Komponenten des Systems nicht besitzen; 2. Alle Ströme von Energie, Stoffen und Informationen bei den verbundenen Komponenten des Systems müssen ununterbrochen sein und eine abgeschlos-sene Kontur besitzen, entweder innerhalb des Systems oder außerhalb des Systems, über die Systemumgebung. So entstand das erste Automobil, als in einen Kastenwagen (Konfigurator) ein Benzinmotor installiert wurde (Energiequelle) mit einer Einrichtung für die Übertragung des Drehmoments (Transmission) auf die Räder (Antrieb – Arbeitsorgane) und einer Einrichtung für das Drehen der Räder (Steuerungssystem für die Bewegungsrichtung). Der Bleistift ist bedingt ein technisches System, da für seine Anwendung eine äußere Energiequelle (z.B. die Hand) und ein Steuerungssystem (z.B. der Mensch) benötigt werden. Er besitzt aber ein Arbeitsorgan – die Mine, die in den Korpus integriert ist, der gleichzeitig den Konfigurator für den Bleistift und die Transmission für die Energieübertragung auf das Arbeitsorgan von der Hand der schreibenden Person darstellt. Eine große Zahl von Fehlern bei der Entwicklung von Erfindungen hängt damit zusammen, dass von den Erfindern die o.g. Systempostulate nicht eingehalten werden oder es einfach nicht möglich ist, sie umzusetzen. So konnten z.B. die ersten Flugzeuge nicht in die Luft aufsteigen, da die Kapazität ihrer Energiequelle nicht stark genug war, um eine ausreichende Aufstiegskraft gegen den Luftwiderstand der Flügel zu erreichen. Es gab also keine geschlossene Energiekontur zwischen Flugzeug und Luft, um das Gewicht des Flugzeugs zu kompensieren. Danach durchliefen Flugzeuge einen komplizierten Weg ihrer Entwicklung innerhalb des Systems der Flugsteuerung. Dazu gehörten die Entwicklung von Querrudern, Stabilisatoren und Wenderudern, sowie die Wahl der Anzahl von Flügeln und ihrer Formen. Dieser Prozess kann sich zyklisch wiederholen (s. Abschn. 15 Klassische TRIZ-Modelle der innovativen Entwicklung). Immer wieder entstanden Probleme bei der Vervollkommnung aller Komponenten, z.B. die Verdickung der Vorderkante des Flügels und nach oben gewölbte Flügel für die Gewährleistung unterschiedlicher Geschwindigkeiten beim Umströmen der Flügel mit Luft unter und über den Flügeln, usw.
92
A-Studio: algorithmische Navigation des Denkens
Die Grundlage der Entwicklung eines Systems bildet die Suche nach Ressourcen und deren Anwendung, die für die Lösung jedes konkreten Problems notwendig und hinreichend sind. Die Verbindung bestehender und neuer (oder transformierter) Ressourcen, die einen neuen positiven technischen Effekt schafft, gilt als Erfindung. Und umgekehrt, das Fehlen (oft auch nur das scheinbare Fehlen!) notwendiger und hinreichender Ressourcen für die Realisierung der geforderten Eigenschaften des Systems, begründet dann das Problem. Betrachten wir einige Beispiele. Bsp. 15. Navigationssysteme für Automobile. Die nützliche Hauptfunktion dieses Systems ist die Bereitstellung notwendiger Informationen für eine optimale Streckenplanung innerhalb der eigenen Stadt oder anderer Ortschaften. Die Bereitstellung dieser Information wurde möglich, durch die Integration einer großen Zahl anderer Systeme in ein einheitliches großes Navigationssystem. Hierbei wurde die Funktion für die Bewertung der Durchlassfähigkeit und des Straßenzustands an ein lokales Supersystem übertragen (regionale Beobachtungs- und Kontrollsysteme). Die Funktion zur Bestimmung der Koordinaten von Verkehrsmitteln an bestimmten Orten wird durch ein globales System spezieller Navigationssatelliten, die sich auf einer Umlaufbahn um die Erde befinden, gewährleistet. Die Datenübertragung wird durch Funkverbindungssysteme realisiert. Die Darstellung der Situation setzt ein Bordcomputer um (Supersystem), die Bewertung der Situation und die Auswahl der Strecke bleibt dem Menschen (System) überlassen. Was aber ist hier das Wichtigste aus der Sicht einer Erfindung? Man kann natürlich sagen, dass es sich hier um Informationen handelt. Das ist natürlich auch so, aber dennoch sind hier die Informationen nur das zu verarbeitende „Hauptprodukt“. Wer aber verarbeitet dieses „Produkt“? Die Antwort lautet: eine prinzipiell neue Organisation der Gesamtheit aller interagierender Systeme, die eine neue funktionale Eigenschaft entwickeln, die keine der Komponenten des Systems im Einzelnen haben. Oder anders gesagt, die funktionale Eigenschaft entstand aus der Integration von Ressourcen verschiedener Systeme durch die Erfindung eines Verfahrens und Schemas ihrer Interaktion. Für jede einzelne Komponente bedeutet das, die Verwendung ihrer Systemressource, d.h. dessen, was eben diese Komponente in das vereinigte System einbringt. Bsp. 16. Erfindung ... des Interesses. Auf unzähligen Verpackungen sind immer öfter Losnummern, Witze, lustige Zeichnungen, Comicserien, Kalender, kurze Geschichten, Biographien von Berühmtheiten, Spiele, Rezepte von speziellen Gerichten für das entsprechende Produkt zu finden. Ganz zu schweigen von Instruktionen und Beispielen für die Anwendung des Erzeugnisses. Welche Ressource wird hier ausgenutzt? Aus technischer Sicht könnte man sagen, die Ressource des freien Platzes auf der Verpackung, oder auch die Ressource der Farbe usw. Das Entscheidende ist hier aber das Kreative – es handelt sich um eine Informationsressource! Bsp. 17. Auf dem Weg zur DVD. Die ersten magnetischen Speicher wurden für die Entwicklung von Geräten zur Langzeitspeicherung von Daten in Computern entwickelt, nachdem sie einen ziemlich langen Entwicklungsweg als Mechanismen zur Aufzeichnung von Tönen durchlaufen hatten. Das heißt die Magnetauf-
8 Operative Zone
93
zeichnung wurde so verändert, dass sie für die Speicherung dualer Informationen geeignet war. Jedoch erfolgte nach einer gewissen Zeit eine eigentlich revolutionäre Umkehrung dieses Prozesses, als Speichervorrichtungen für Informationen auf Laser- (optischen) und Compactdiscs (CD) eine solche Aufzeichnungsdichte erreichten, das es möglich wurde darauf Informationen von 600-700 MB an Daten oder 40-60 Minuten dauernde Musikwerke in höchster Klangqualität aufzuzeichnen. Letztendlich wurde gegen Ende des XX. Jh. die DVD (Digital Video Disc) entwickelt, die eine Informationsdichte bis zu 20 Gigabyte hat und die Möglichkeit bietet, Videofilme mit einer Dauer von mehreren Stunden wiederzugeben! Das bedeutet, dass die Aufzeichnung und das Lesen dualer Informationen hierbei die sich ständig weiter entwickelnde Ressource für die CD war, was zu revolutionären Veränderungen in der Weiterentwicklung der Computer-, Audio- und Videotechnik führte. Das sind Beispiele für die Entwicklung verschiedener Erfindungen unter Verwendung unterschiedlicher physikalischer Erscheinungen, jedoch auf der Basis ein und derselben funktionalen Ressource. Hervorzuheben ist hier auch die bedeutende Rolle der Informationsressource in Form der neuen Systeme zur Datenkomprimierung, wie heute das – MPEG2 (Motion Pictures Experts Group) für die Übertragung von Videodarstellungen und einer Reihe von Formaten der Audiobegleitung, z.B. Dolby Digital Format, Digital Cinema Sound u.a. Bsp. 18. Systeme mit mehreren Prozessoren. Es wurden nicht gerade wenige Patente für spezielle Rechensysteme erteilt. Solche Systeme, in der Regel mit mehreren Prozessoren, verfügen über eine maximale theoretische Produktivität für eine bestimmte Klasse von Aufgaben oder sogar für nur eine Aufgabe. Außerdem gibt es auch viele Patente für konkrete Strukturen universeller Systeme mit mehreren Prozessoren. Die hohe Produktivität solcher Systeme ist dadurch bedingt, dass in Abhängigkeit von der zu lösenden Aufgabe oder sogar mehrerer gleichzeitig zu lösender Aufgaben eine dynamische Verteilung freier Prozessoren für die Bearbeitung der vorliegenden verschiedenen Aufgaben oder sogar nur einer Aufgabe erfolgt. Das bedeutet, dass sich die Struktur der Datenflüsse ständig verändert, während die stetige physikalische Kommutation der Prozessoren unverändert bleibt. Den Prozess des Erfindens dominiert in jedem Fall eine Strukturressource. Auch auf die wichtige Bedeutung der Zeitressource sollte verwiesen werden, da die Prozessoren die Aufgaben in einem Regime der Zeitaufteilung bedienen (synchron oder asynchron, dynamisch). Bsp. 19. Was haben das Kino, die elektrische Lampe und das Display gemein? Es dauerte noch eine ziemlich lange Zeit von der Entdeckung der Möglichkeit eines Fixierens von bildlichen Darstellungen auf Fotoplatten bis zur Kinematographie. Sie entstand erst dann, als festgestellt wurde, dass aufgrund der Trägheit unseres Auges, die Abfolge von Aufnahmen und deren Wiedergabe ununter-brochener Bewegungen mit einer Frequenz von mindestens 16 Bildsequenzen pro Sekunde (16 Hertz) so wahrgenommen wird, als sähe man eine ununterbrochene Bewegung. So entstand das Kino. Übrigens erleuchten und erlöschen elektrische Lampen mit einer Frequenz von ca. 50 Hz, so dass wir es gar nicht bemerken (das kommt daher, weil es der Glühfaden beim Wechsel der Spannung nicht schafft, zu erkalten). An Computerbildschirmen beträgt die Frequenz des Wechsels von Darstellungen heute bereits 100 Hertz, was eine hohe
94
A-Studio: algorithmische Navigation des Denkens
Qualität der Darstellung ermöglicht und zu einer geringeren Ermüdung der Benutzer führt. Hier wird ganz offenkundig eine zeitliche Ressource ausgenutzt. Bsp. 20. Korridore für Flugzeuge und Satelliten. In Gegenden mit großen Flughäfen legen Fluglotsen standardmäßig oder situativ bedingt so genannte Luftkorridore für bestimmte Flugzeuge fest, die sich auf ihre Landung oder ihren Start vorbereiten. Dieser Korridor ergibt sich aus der Höhe des Flugs über der Ortschaft, der Höhe und Breite des Korridors selbst und aus dem Kurs des Flugzeugs, d.h. der Orientierung des Korridors und der Richtung des Flugs. (Etwas schwieriger wird es bei Start- und Landekorridoren.) Ähnliche Lotsenarbeit erfolgt auch beim Start neuer Raumsonden und der Überführung dieser Raumsonden auf eine bestimmte Umlaufbahn mit neuen Parametern. Diese Operationen werden deshalb durchgeführt, um sich nicht überschneidende Flugbahnen im Raum zu schaffen, damit es zu keinem Zusammenstoß von Flugkörpern kommt. Hier dominiert natürlich eine räumliche Ressource. Bsp. 21. Sonnenbrillen. Unlängst wurden Sonnenbrillen mit einer vom Träger regulierbaren Lichtdurchlässigkeit patentiert. Für jedes Auge gibt es hierbei zwei Gläser, von denen eines drehbar gestaltet ist. Die Gläser selbst sind dabei sogenannte Polarisationsfilter. Bei bestimmten Positionen der Gläser stimmen ihre Polarisationsvektoren überein, und die Brille ist maximal lichtdurchlässig. Bei Drehung eines der Gläser verschieben sich jedoch die Polarisationsvektoren und die Lichtdurchlässigkeit verringert sich. Früher schon wurden Sonnenbrillen entwickelt, die phototrope Gläser hatten, die ihre Lichtdurchlässigkeit „automatisch“ verändern konnten, je nach Intensität des Lichts. Hier wurde offenkundig eine stoffliche Ressource verwendet. Bsp. 22. Kraftwerk im Ofenrohr. In den 20-er Jahren des XX. Jahrhunderts kam der französische Ingenieur Bernard Dubot auf die Idee ein Kraftwerk zu entwickeln, dessen Turbine in einem hohen Rohr arbeitet, angetrieben von dem warmen Strom der aufsteigenden Luft. 50 Jahre später entwickelte der deutsche Ingenieur Jörg Schleich aus Stuttgart (Erbauer einer Reihe origineller Brücken, Kühltürme und des Dachs für das Olympiastadion in München) diese Idee weiter und bestätigte seine Funktionsfähigkeit durch die 10-jährige Arbeit eines solchen Kraftwerks in Spanien. Die Grundlage dieses Kraftwerks bilden zwei gut bekannte Effekte: Treibhaus- und Kamineffekt (Abb. 8.5). Ein großes „Treibhaus“ mit Abb. 8.5. Dubot-Schleicheinem Glasdach, z.B. mit einer Fläche von ca. einem Kraftwerk Quadratkilometer wird von der Sonne erhitzt. Die heiße Luft aus dem „Treibhaus“ strömt hoch in eine Röhre mit einer Höhe von mehreren Hundert Metern, die sich im Zentrum des „Treibhauses“ befindet. Sie treibt dann die Turbine des Stromgenerators, der in dieses „Ofenrohr“ eingebaut ist, an. Damit dieses Kraftwerk auch nachts arbeiten kann, ist im „Treibhaus“ ein geschlossener Wärmeakkumulator aus Röhren, die mit Wasser gefüllt sind, untergebracht. Die warme Luft aus diesen Röhren kann so auch nachts die Turbinen des Generators antreiben.
8 Operative Zone
95
Bei dieser Idee wirken natürlich wie bei allen großartigen technischen Ideen alle Ressourcenarten. Die wichtigste von allen anderen gleichwertigen Ressourcen ist jedoch die energetische Ressource des Systems. Das Wesen der Idee ist natürlich die Nutzung der Sonnenstrahlen, die auf die Erde fallen, dann die Energie der aufsteigenden erhitzten Luft. Und letztendlich wird die Umwandlung der mechanischen Energie der Drehung der Turbine in elektrische genutzt. Alle in den Beispielen erwähnten Ressourcen lassen sich in zwei Gruppen aufteilen (Abb. 8.6). System-technische Ressourcen sind auf ihre Art abstrakt und können als Modell aufgefasst werden. Physikalisch-technische Ressourcen sind in einem System deutlicher zu erkennen, in Form zeitlicher Parameter ihres Wirkens, als geometrische Formen, konkrete Materialien und als verwendete Energiearten. Was auch immer mit der Dominanz dieser oder jener system-technischer Ressourcen erfunden wurde, die praktische Umsetzung einer Idee erfolgte immer auf der Basis einer Veränderung physikalisch-technischer Ressourcen. Eine Idee wird immer nur materiell zur Realität. Ressourcengruppen system-technische
physikalisch-technische
Abb. 8.6. Ressourcenarten
Ungeachtet der ein wenig willkürlichen Aufteilung der Ressourcen in Arten und Gruppen, handelt es sich hierbei um eine äußerst nützliche Differenzierung, die helfen kann, die dominierenden Aspekte eines Problems und dessen Lösung herauszustellen. So muss man bei der Untersuchung eines Problems bemüht sein zu verstehen, welche Ressource denn die Ursache des Konflikts bildet, oder womöglich, welche Ressource im System nicht ausreicht und warum. Vielleicht ist die Ressource erschöpft, aber es kann auch sein, dass sie einfach nur schlecht oder ineffektiv verwendet wird. Die oben erwähnten Ressourcenarten werden in der Klassifikationstabelle Abbildung 8.7. dargestellt. Wenn es notwendig ist, neue Ressourcen für die Lösung eines Problems einzuführen, sollte man gewisse Vorsicht und Pragmatismus walten lassen. Die beste Lösung für bestehende Systeme besteht immer in minimalen Veränderungen. Deshalb wurden in der TRIZ praktische Empfehlungen ausgearbeitet, die Sie in der Tabelle in der Abbildung 8.8. finden. Als Abschluss dieses Abschnitts kommen wir noch einmal zu einigen praktischen Lehrbeispielen aus dem Archiv der klassischen TRIZ für die unmittelbare Anwendung von Ressourcen. Bsp. 23. Wie kann man Zugluft in Gebäuden visualisieren. In großen Gebäuden, die gerade gebaut werden, oder schon fertig sind (Lager- oder Werkhallen) kommt es oft zu starker Zugluft. Das liegt an der Verbindung von Luftströmen, die an noch nicht geschlossene Öffnungen in den Mauern oder nicht ausreichend abgedichteten Ventilationssystemen, Röhrensystemen oder an anderen Stellen entstehen.
96
A-Studio: algorithmische Navigation des Denkens
SYSTEM-TECHNISCHE RESSOURCEN SYSTEMRESSOURCEN
INFORMATIONSRESSOURCEN
FUNKTIONALE RESSOURCEN
STRUKTURRESSOURCEN
Gehören zu den all- Gehören zur Übertra- Gehören zur Schaf- Gehören zum Begemeinen Systemei- gung von Signalen, fung von Funktionen stand des Objekts genschaften tragen Mitteilungen Effektivität, Produktivität, Zuverlässigkeit, Sicherheit, Langlebigkeit, und andere
Zuverlässigkeit, Störungsresistenz, Genauigkeit, Vollständigkeit, Methoden und Effektivität der Kodierung, Verfahren und Parameter der Datenkompression u.ä.
Zweck (nützliche Hauptfunktion), Hilfsfunktionen, negative Funktionen, Beschreibung des Funktionsprinzips (Funktionales Modell)
Komponenten und Verbindungen zwischen Komponenten, Strukturarten (lineare, verzweigte, parallele, geschlossene u.ä.)
PHYSIKALISCH-TECHNISCHE RESSOURCEN ZEITLICHE RESSOURCEN
RÄUMLICHE RESSOURCEN
STOFFLICHE RESSOURCEN
ENERGETISCHE RESSOURCEN
Gehören zur Bewertung der Zeit
Gehören zu den geometrischen Eigenschaften
Gehören zu den Materialeigenschaften
Gehören zu den energetischen Eigenschaften und ihren Erscheinungen
Häufigkeit von Ereignissen, Dauer der Zeitintervalle, Reihenfolge der Ereignisse in der Zeit, Wert der Verspätung oder des Überholens
Form eines Objekts, Größe – Länge, Breite, Höhe, Durchmesser usw., Besonderheiten der Form – Vorhandensein von vorspringenden Teilen, Hohlräumen usw.
Chemische Zusammensetzungen, physikalische Eigenschaften, spezielle ingenieurtechnische Eigenschaften
Arten genutzter und berücksichtigter Energien, inkl. mechanischer Kräfte, Gravitations-, Wärme-, elektromagnetische Kräfte usw.
Abb. 8.7. Klassifizierung von Ressourcen
Eigenschaften
Wert: umsonst o nicht teuer o teuer
von
Qualität: schädlich o neutralo nützlich
Ressourcen
Quantität: uneingeschränkt o ausreichend o nicht ausreichend Bereitschaft zur Anwendung: fertig o veränderliche o zu entwickelnde
Abb. 8.8. Empfehlungen für die Auswahl von Ressourcen
8 Operative Zone
97
Um die Quellen und Wege der Zugluft genauer und schneller aufzudecken, wurde empfohlen, Seifenblasen zu verwenden, die mit einer speziellen unkomplizierten Vorrichtung erzeugt werden. Tausende fliegender Blasen visualisieren die Ströme der Zugluft! Es wurde hier eine stoffliche Ressource verwendet – der Seifenfilm dient als recht feste Hülle für die sich darin befindende Luft; die Energieressource – die wärmere Luft in den Seifenblasen bewirkt eine Auftriebskraft. Bsp. 24. Kokospalmen. Um auf eine 20 Meter hohe oder noch höhere Palme zu gelangen, braucht man schon einige Gewandtheit und Erfahrung. Mit Leitern oder Seilen herumzulaufen ist oft lästig. Es wäre doch schön, wenn jede Palme selbst Stufen hätte, die einer Leiter ähneln! In vielen Gegenden, wo Kokosnüsse geerntet werden macht man bei jungen Palmen, die noch wachsen, Einschnitte, die der Palme nicht schaden. Wenn die Palme dann ausgewachsen ist, hat man an ihr eine fertige Leiter! Hierbei wurde in kluger Voraussicht die Ressource der Zeit verwendet (die Leiter wuchs von selbst während der Zeit des Wachstums der Palme!) und natürlich die Ressource des Raums (die Stufenform am Stamm der Palme). Bsp. 25. Beleuchtung für den „Lunochod“. Es wird berichtet, dass bei der Entwicklung der Scheinwerfer des so genannten „Lunochod“, dem ersten sich selbst bewegenden Fahrzeug auf dem Mond, große Schwierigkeiten auftraten. Im Konstruktionsbüro bei Moskau suchte man lange nach einem ausreichend festen Material für die Glasabdeckung der Scheinwerfer. Man wusste, dass auf dem Mond praktisch ein ideales Vakuum vorhanden ist. Wurde jedoch aus dem Scheinwerfer die Luft herausgepumpt, hielt der Scheinwerfer dem atmosphärischen Druck nicht stand und zerbrach. Wenn in den Scheinwerfer ein Edelgas eingeleitet wurde, zerbrach er im Vakuum. Das ging so weiter, bis jemand darauf kam, dass der Glühfaden des Scheinwerfers auf dem Mond gar nicht geschützt werden muss. Dort ist doch genau dieses Vakuum vorhanden, welches benötigt wird, um ein normales Glühen des Glühfadens zu gewährleisten! Eine Glashülle braucht man nur für den Schutz des Glühfadens vor mechanischen Beschädigungen und für eine Fokussierung des Lichts. Dieser erfinderische Mitarbeiter verwendete hier eine vorhandene stoffliche Ressource des Vakuums auf dem Mond (einen Stoff, der nicht da ist!). Bsp. 26. Wasser im Wasser. In vielen Ländern Afrikas und der Arabischen Halbinsel ist die Wassergewinnung und Aufbewahrung von Trinkwasser, darunter auch von Regenwasser, ein großes Problem. Die dafür notwendigen Speicher müssten gewaltige Bauwerke sein, die außerdem noch gekühlt werden müssten. Der schwedische Ingenieur Karl Dunkers hatte die Idee Wasser im Meer aufzubewahren! Zu diesem Zweck sollten im Meer schwimmende Speicher errichtet werden, in Form gigantischer Zylinder ohne Boden und Abdeckung, die mit Pontons schwimmfähig gehalten werden. In diese Pontons gelangt unmittelbar während des Regens Wasser, und bleibt dort bis es mit Pumpen vom Ufer aus abgepumpt wird. Solche Speicher können über Tausende Kilometer transportiert werden, da, und das ist das wichtigste, Trinkwasser eine geringere Dichte hat als Meerwasser, schwimmt es auf dem Meerwasser und vermischt sich nicht mit ihm! Als Weiterentwicklung dieser Idee könnte man hinzufügen, dass solche Speicher, wenn sie einen „Deckel“ hätten, z.B. bis zur Antarktis und zurück bewegt werden könnten. In der Antarktis könnte der Speicher einen kleineren Eisberg aus Trinkwasser greifen und ihn in warme Zonen transportieren. Während des
98
A-Studio: algorithmische Navigation des Denkens
Transports würde der Eisberg als jener erwähnte „Deckel“ dienen und nach und nach auftauen, bis der Speicher völlig mit Trinkwasser gefüllt ist. In diesen Ideen dominiert die stoffliche Ressource und zu einem großen Teil auch die energetische. (Verwendung des Gesetzes des Archimedes, wonach das Trinkwasser selbst auf der Oberfläche des Meerwassers schwimmt, nicht nach unten läuft und sich nicht mit dem Salzwasser vermischt!) Für die Ideen aus den Beispielen 15-26 ist charakteristisch, dass diese oder jene dominierende Ressourcen verwendet wurden. Aus diesem Grund ist es oft ausreichend, die im Konflikt stehende und nicht ausreichende Ressource richtig herauszustellen, um sie zu verstärken und mit ihrer Hilfe, eine originelle Lösung zu finden. Jedoch bedürfen kompliziertere Probleme auch einer tiefer greifenden Untersuchung und Transformationen, die gleich mehrere Ressourcen betreffen. Hier müssen die Widersprüche untersucht und Modelle für Transformationen angewendet werden. Ohne Kenntnisse über physikalisch-technische Effekte kommt man hier auf keinen Fall aus.
9 Vom Bestehenden zum Entstehenden 9.1 Widersprüche 9.1.1 Der Begriff Widerspruch Goethe stellte einst scharfsinnig fest, dass die Wahrheit zwischen den Extremen liegt ... – nein, zwischen den Extremen liegt das Problem! Viele Philosophen und viele Forscher zu Methoden der Kreativität erkannten, dass der Widerspruch das Wesen des Problems darstellt. Jedoch wandelte vor Genrich Altschuller niemand diesen Begriff in einen „universellen Schlüssel“ für die Aufdeckung und Lösung des Problems an sich um! Erst in der TRIZ aus dem Jahre 1956 begann der Widerspruch als fundamentales Modell zu „arbeiten“, das den ganzen Lösungsprozess eröffnet. Erst in der TRIZ wurde der Widerspruch zu einem konstruktiven Modell, ausgerüstet mit Instrumenten für die Transformation dieses Modells zur Beseitigung des entsprechenden Widerspruchs. Erfinden heißt – einen Widerspruch beseitigen! Es existieren viele Möglichkeiten für die Definition und Darstellung von Modellen für Widersprüche. Hier wollen wir jedoch nur jene Definitionen anführen, die den Grundlagen der klassischen TRIZ am meisten entsprechen. Jedoch untersuchen wir in erweiterten Kursen auch andere, sowohl abgeleitete als auch ursprüngliche Modelle. Widerspruch ist das Modell eines Systemkonflikts, welcher unvereinbare Anforderungen an funktionale Eigenschaften im Konflikt stehender Komponenten stellt.
9 Vom Bestehenden zum Entstehenden
99
Binäres Modell eines Widerspruchs (oder vereinfacht, binäres Modell) oder binärer Widerspruch (Abb. 9.1) – es modelliert den Konflikt der Unvereinbarkeit von nur zwei Faktoren (Eigenschaften). Komposition binärer Modelle ist die Gesamtheit miteinander verbundener binärer Widersprüche, die aufgestellt wird, um einen Konflikt mit mehreren Faktoren zu beschreiben. Beliebige mehrschichtige Konflikte mit verschiedenen Faktoren lassen sich in Form der Komposition binärer Modelle darstellen. Danach aber muss das Wichtigste gefunden werden, der binäre „Schlüsselwiderspruch“, dessen Lösung eine unabdingbare Voraussetzung für die Lösung eines Modells mit mehreren Faktoren ist. Es lassen sich zwei hauptsächliche Fälle der Unvereinbarkeit herausstellen: 1. Einer der Faktoren entspricht der nützlichen Hauptfunktion des Systems und unterstützt sie (positiver Faktor oder Plus-Faktor), der andere Faktor entspricht nicht dieser Funktion und wirkt ihr entgegen (negativer Faktor oder MinusFaktor); 2. Beide Faktoren sind positiv, stören aber einander bei ihrer Realisierung, da sie wegen einer gewissen Ressource im Konflikt stehen, die sie beide benötigen, sie aber nicht gleichzeitig oder im notwendigen Maße verwenden können. Beschreibung des Actors Komponente Funktion Wirkung Zustand
Funktion Wirkung Zustand
Erster Faktor der Unvereinbarkeit Beschreibung
Funktion Wirkung Zustand
Zweiter Faktor der Unvereinbarkeit
von Eigenschaften
Abb. 9.1. Verallgemeinerte graphische Form der Darstellung binärer Widersprüche
Lösung des Widerspruchs bedeutet Beseitigung der vorhandenen Unvereinbarkeiten. Die scheinbare oder reale (physikalisch bedingte) Unvereinbarkeit, die zum Sinken der Effektivität eines Systems oder zur völligen Unmöglichkeit der Realisierung der nützlichen Hauptfunktion führt, widerspiegelt sich im Widerspruch. Wenn eine bestehende Unvereinbarkeit durch offensichtliche Verfahren nicht beseitigt werden kann, wird die Situation zum Problem, das nur schwer gelöst werden kann (s. Abb. 7.4 und 7.5). Die Lösung des Problems erfordert in solchen Situationen die Umsetzung nicht gerade trivialer Transformationen, die oft unerwartete Ideen beinhalten und einen oft unglaublichen Effekt haben. Kommt man denn wirklich so leicht auf die Idee eines Hauses, das bei Überschwemmungen einfach wegschwimmt? Oder nehmen wir die Idee des eingefrorenen Likörfläschchens, das von heißer Schokolade umflossen wird? Oder aber auch das Eis an den Füßen der Palmen?! Flugzeuge mit vertikalem Start mussten erst Hunderte von Unfällen erleiden, ehe klar wurde, dass eine vertikale Orientierung des Flugzeugkörpers nicht akzep-
100
A-Studio: algorithmische Navigation des Denkens
tiert werden kann – ja, sogar nicht nötig ist. Es wurden materielle, finanzielle und intellektuelle Ressourcen verschwendet, ganz zu schweigen vom Tod vieler Piloten. Die ursprüngliche administrativ-strategische Vorstellung von der unbedingt notwendigen vertikalen Ausrichtung des Flugzeugrumpfs erwies sich als primitiver Fehler! Es war technisch einfacher und effektiver, ein Flugzeug mit einer normalen horizontalen Ausrichtung des Rumpfs umzusetzen, jedoch musste hier eine Dynamisierung eingeführt werden. Die Dynamisierung beseitigte den Ausgangswiderspruch! Das musste bei der Konzeption des Flugzeugs bis zu seiner Projektierung berücksichtigt werden! Auf dem strategischen Niveau der Entwicklung einer neuen technischen Funktion! Das bedeutet, dass auch eine administrativ-strategische Lösung auf der Grundlage der Überführung des Problems auf das taktisch-technische und operativ-physikalische Niveau angewendet wurde. So kommt man auf eine große Anzahl von Widerspruchsarten, z.B., technischökonomische (technische Eigenschaft - Kosten), technisch-technologische (technische Eigenschaft – Kompliziertheit der Produktion), technische (Unvereinbarkeit von Funktionen), physikalische (Unvereinbarkeit der Zustände einer Eigenschaft) und einige andere oder auch Kombinationen aus den genannten. Die ersten zwei Arten haben in der Regel den Charakter administrativer Widersprüche. Für deren Lösung müssen diese Widersprüche auf das Niveau technischer oder physikalischer überführt werden, auf die auch das Instrumentarium der klassischen TRIZ orientiert ist. Lassen Sie uns hier einige Besonderheiten der Bildung von Widersprüchen ansehen (Abb. 9.2). So können für jeden Widerspruch inverse Modelle oder alternative Varianten konstruiert werden, die von der Bedeutung her mehr oder weniger den Faktoren des Ausgangswiderspruchs, des direkten Widerspruchs, ähneln. Konstruktive alternative Varianten entstehen, wenn mehrere Eigenschaften eines Objekts im Konflikt stehen. Diese Erscheinung lässt sich bei der Kombination von Verfahren verwenden, die auf die Lösung bestimmter alternativer Widersprüche gerichtet sind (s. z.B. Abschnitt 11.4. Integration alternativer Widersprüche – die CICO-Methode). Alternative Varianten entstehen oft aufgrund unterschiedlicher Beschreibungen ein und derselben Konflikteigenschaft durch verschiedenen Spezialisten. Das führt oft zu Missverständnissen und Diskussionen innerhalb von Teams, die ein und dasselbe Problem zu lösen haben. Die Anwendung der AMatrize und der Tabelle der fundamentalen Widersprüche hilft, die Variabilität von Modellen einzuschränken. WIDERSPRÜCHE
Zwischen Systemeigenschaften
inverse
Zwischen Systemund physikalischen Eigenschaften
direkte
Abb. 9.2. Typen von Widerspruchsmodellen
Zwischen physikalischen Eigenschaften
alternative
9 Vom Bestehenden zum Entstehenden
101
Widerspruchsmodelle können Eigenschaften verschiedener Systemniveaus umfassen. So können z.B. beide Eigenschaften auf einem Niveau liegen, oder eine Eigenschaft kann physikalisch-technisch sein und die andere system-technisch. Zur Orientierung kann man die Tabelle der Ressourcenarten verwenden (Abb. 8.7). Unter Berücksichtigung der folgenden zwei Anmerkungen, kommen wir zu einer ausführlicheren Betrachtung dieser Widersprüche: 1. Die genaue Formulierung des Widerspruchs ist keine leichte Operation und bedarf großer Erfahrungen und natürlich professionellen Wissens. Davon, wie der Widerspruch formuliert wird, und was er widerspiegelt, hängt der gesamte weitere Lösungsweg des Problems ab; 2. Widersprüche verschiedener Arten können in hierarchischer Form dargestellt werden, in Form einer „Matrjoschka der Widersprüche“: in jedem beliebigen administrativen Widerspruch befindet sich ein technischer Widerspruch und in einem technischen ein – physikalischer. 9.1.2 Technischer Widerspruch Klar formulierte Modelle technischer Widersprüche sind Ihnen bereits in den Beispielen für das Re-Inventing 4, 6, 13 und 14 begegnet. Es ist günstig, sie an dieser Stelle noch einmal zu betrachten, um folgende Definitionen besser zu verstehen und zu akzeptieren: Technischer Widerspruch ist ein binäres Modell, das unvereinbare Anforderungen an verschiedene funktionale Eigenschaften einer Komponente oder mehrerer im Konflikt interagierender Komponenten widerspiegelt. Bsp. 4 (Ergänzung). Hierbei handelte es sich um folgenden Ausgangswiderspruch (Abb. 9.3): FunktionWirkung: vertikaler Start/Landung
Plus-Faktor
Zustand: vertikale Lage des Flugzeugrumpfs
Funktion - Wirkung: Minus-Faktor visuelle Kontrolle und Steuerung
Abb. 9.3. Graphisches Modell des binären Widerspruchs für Beispiel 4
Bei der Entwicklung der Lösung wirkten zunächst starke psychologische Hemmnisse, die es nicht ermöglichten eine Dynamisierung in die Konstruktion des Flugzeugs einzubringen. Man ging davon aus, dass das Flugzeug an sich nicht verändert, sondern nur die Orientierung bei Starts und Landungen modifiziert werden kann. Man war der Ansicht, dass ein Düsenjet mit vertikalem Start und Landung mit der Spitze nach vorn starten und auf dem Heck landen muss! Erst viele Jahre später wurde anerkannt, dass eine gute Kontrolle und Steuerung des Flugzeugs, sowie die Möglichkeit einer horizontalen Orientierung des Flugzeugrumpfs eine entscheidende Bedeutung hat! Setzen wir als Übung unser Re-Inventing fort, und stellen fest, dass der Ziel-Plus-Faktor eine bequeme Steuerung des Flugzeugs sein muss (system-technische Ressource), und dass die Orientierung des Rumpfs
102
A-Studio: algorithmische Navigation des Denkens
(physikalisch-technische Ressource) zum problematischen Minus-Faktor wird. Das heißt wir gehen zum inversen Widerspruch über (Abb. 9.4): FunktionWirkung: vertikaler Start/Landung
Plus-Faktor
Funktion-Wirkung: visuelle Kontrolle und Steuerung
Minus-Faktor
Zustand: vertikale Lage des Rumpfes
Abb. 9.4. Inverses Modell des binären Widerspruchs für das Beispiel 4
Die Reduktion des inversen Ausgangsmodells auf der Basis der A-Matrize führt zu folgendem Widerspruchsmodell (Abb. 9.5): Plus-Faktor 10 nach der A-Matrize FunktionWirkung: vertikaler Start/Landung
Funktion-Wirkung: Nutzungskomfort Minus-Faktor 22 nach der A-Matrize Zustand: Form
Abb. 9.5. Reduziertes Modell des inversen Widerspruchs für Beispiel 4
Die A-Matrize folgender Navigatoren: 04 Ersatz der mechanischen Materie; 07 Dynamisierung; 14 Verwendung von pneumatischen oder hydraulischen Konstruktionen und 15 Verwerfen und Regeneration von Teilen. Wie Sie bereits wissen, führte letztendlich der Navigator 07 Dynamisierung zur Lösung des Problems. Es sollte bemerkt werden, dass es auch Versuche gab, den Navigator 15 Verwerfen und Regeneration von Teilen anzuwenden, indem versucht wurde abwerfbare Beschleunigungsmotoren für den Start zu installieren. Bsp. 27. Trainingsstationen im Fitnesscenter (Anfang). Die Diagnostik zeigt, dass in einem Fitnessclub verschiedene spezielle Trainingsgeräte aufgestellt worden sind. Jedes davon nimmt einen bestimmten Platz ein. Besonders Geräte für das Trainieren im Liegen. Geräte für das Training im Stehen nehmen weniger Platz ein. Insgesamt will man immer Platz sparen, damit mehr Besucher trainieren können. Das einzelne Trainingsgerät kann man als Hauptelement der operativen Zone betrachten, und danach, wenn möglich, die Lösung auf die anderen Trainingsgeräte übertragen. So kann man den technischen Ausgangswiderspruch formulieren: die Konstruktion des Trainingsgerätes muss das Training mehrerer Besucher gewährleisten (Plus-Faktor), dabei wird jedoch mehr Platz eingenommen (Minus-Faktor). Bsp. 28. Einschlagen von Pfeilern mit Vibrationsschlag (Anfang). Die Diagnostik zeigt, dass das Einbringen von Pfeilern durch Schläge (Beispiel 14 mit Fortsetzungen) eine große Prozentzahl von Ausschuss liefert und keine Möglichkeit bietet, eine höhere Produktivität zu erlangen. Es wird empfohlen, die operative Zone auf den gesamten Pfeiler zu erweitern, und andere mögliche Navigatoren
9 Vom Bestehenden zum Entstehenden
103
für die Arbeitsbewegung des Pfeilers zu untersuchen. Hier besteht ein deutlicher Konflikt zwischen system-physikalischen Eigenschaften, der sich in Form eines technischen Widerspruchs darstellen lässt: die Bewegung der Pfeiler muss beschleunigt werden, dabei steigt aber der Einfluss zerstörender schädlicher Faktoren, und es sinkt die Zuverlässigkeit der Operationen. Bsp. 29. Leiten von Satellitengruppen auf genaue Orbits (Anfang). In der Etappe der Diagnostik wurde festgestellt, dass Satellitengruppen sehr schwer auf mehrere genaue Orbits oder auf denselben Orbit mit bestimmten Abständen voneinander beim Raketentransport geleitet werden können. Das widerspiegelt sich in folgendem technischen Widerspruch: das Leiten einer Satellitengruppe durch eine Rakete mit einer vorgegebenen Genauigkeit erfordert die Entwicklung äußerst komplizierter Systeme des Starts und der Steuerung. Bsp. 30. Schreibtafeln (Anfang). Die Diagnostik des Prozesses „Abhalten von Vorlesungen“ unter Verwendung traditioneller Tafeln mit Kreide zeigt, dass dieser Prozess die Schaffung von willkürlichen Darstellungen gewährleistet und einfach in der Handhabung ist. Jedoch hat er keine hohe Produktivität, besonders, wenn es notwendig wird, fertige komplizierte Illustrationen aus Lehrbüchern oder aus CAD-Datenbanken zu zeigen. Außerdem ist ein solches Verfahren wenig komfortabel, wenn Informationen von der Tafel in Computer übertragen werden sollen. Zum Beispiel bei Internet-Vorlesungen. Es müssen Lesekameras verwendet werden, welche die Darstellungen von der Tafel übertragen. Danach übertragen die Teilnehmer die Bilder von Fernsehschirmen oder Computermonitoren. Die Darstellung wird dabei aufgenommen und in analoger Form übertragen, d.h. es vollzieht sich eine analoge Umsetzung der Aufnahme der gesamten Tafel in Bildausschnitte. Wenn wir den vielschichtigen Charakter der Aufgabe berücksichtigen, können wir mehrere alternative technische Widersprüche formulieren, die einander ergänzen. So hat die Zeichnung auf der Tafel folgende positive Eigenschaften: Einfachheit der Konstruktion und die Möglichkeit der Darstellung beliebiger Zeichnungen. Mängel: geringe Produktivität des Zeichnens, besonders bei komplizierten Zeichnungen, fehlende Automatisierung des Zeichnens, umfangreiche Übertragung und Kompliziertheit des Nachzeichnens der Videoinformationen, die auf der Grundlage der Fernsehtechnologie übertragen werden. Wenig komfortable Nutzung (Verwendung von Kreide oder Faserschreibern, welche die Hände beschmutzen, komplizierte Korrekturen und unmögliche Übertragung der Zeichnungen – nur zusammen mit der gesamten Tafel oder den Flip-Charts). Finden Sie nicht auch, dass es noch zu früh ist nach einer solchen Diagnostik an die Vervollkommnung der Schreibtafel heranzugehen?! Erstens gibt es zu viele Widersprüche, und sie sind ungeordnet. Zweitens, es gibt kein Ziel in Form einer nützlichen Hauptfunktion und kein zu erwartendes ideales funktionales Modell, und drittens, es ist unklar, welche Ressourcen zugänglich oder zulässig sind. Dennoch, die Widersprüche selbst existieren, und das heißt, es gibt Arbeit für den kreativen Geist. Bsp. 31. Kuppel des Reichstags (Anfang). Jetzt können Sie eine Weile die Rolle des Chefarchitekten Sir Norman Foster spielen, der die dann umgesetzte äußerst interessante Idee für die Rekonstruktion des Reichstags in Berlin hatte (Abb. 9.6).
104
A-Studio: algorithmische Navigation des Denkens
Die Idee „Nummer Eins“ dabei, sowohl architektonisch-technisch gesehen, wie auch in ihrem Symbolcharakter, ist die Glaskuppel als Element des Systems der natürlichen Beleuchtung des Hauptsitzungssaals, sowie als Sehenswürdigkeit in Berlin, ähnlich dem Eiffelturm in Paris, dem Big Ben und der Westminster Abbey in London oder der Freiheitsstatue in New York. Übrigens zur tiefen symbolischen Bedeutung der Kuppel komme ich später noch einmal am Ende des Buchs. Betrachten wir also die erste Aufgabe mit der Kuppel. Auf der Innenseite der Halbkugel der Kuppel ist eine Rampe eingebaut, auf der Besucher auf die obere Aussichtsplattform gelangen. Wie kann man die Rampe so gestalten, dass die Besucherströme, von unten und oben einander nicht begegnen?! Wenn die Rampe so gebaut wäre wie in Abb. 9.7, kämen die Besucherströme einander entgegen. Bei einem solchen „Projekt“ käme es unausweichlich zu verschärften technischen Widersprüchen: die Rampe hat eine solche Form, bei der aufeinander treffende Besu-cherströme entstünden bei Aufstieg und Abstieg, was zu Zeitverlusten führt und zu Unannehmlichkeiten. Es muss eine optimalere Form der Rampe gefunden werden.
Abb. 9.6. Reichstagsgebäude in Berlin (Sitz des deutschen Bundestages)
Abb. 9.7. Mögliche Variante der Rampe in der Kuppel A A A
Hiermit wollen wir die Beispiele abschließen, in denen orientierende Ausgangsmodelle für technische Widersprüche in der Form entwickelt wurden, wie es gewöhnlich in der Praxis in der Etappe der Diagnostik abläuft. Die wirkliche gerichtete Lösung von Aufgaben beginnt mit der Konkretisierung der Modelle von Widersprüchen in der Etappe der Reduktion. Weiter geht es mit der Beseitigung der Widersprüche in der Etappe der Transformation, und es endet mit der Etappe der Verifikation. Versuchen Sie selbst eine Lösung zu finden, und vergleichen Sie diese mit den Kontrollantworten, die sie später im Abschnitt 9.3 Transformationen finden. 9.1.3 Physikalischer Widerspruch Deutlich formulierte Modelle physikalischer Widersprüche haben Sie bereits beim Re-Inventing in den Beispielen 1, 2, 3, 5, 7, 10, 11, 13 und 14 kennen gelernt. Kommen wir zu folgender Definition: Physikalischer Widerspruch ist ein binäres Modell, das unvereinbare Anforderungen an ein und die selbe funktionale Eigenschaft stellt.
9 Vom Bestehenden zum Entstehenden
105
Die Lösung eines solchen Widerspruchs ist deshalb so kompliziert, da beide im Konflikt stehenden Zustände für die Realisierung der nützlichen Hauptfunktion des Systems notwendig sind. Betrachten wir noch einmal die Formulierung und Lösung des physikalischen Widerspruchs beim Re-Inventing des Füllfederhalters nach Beispiel 1. In der verschärftesten Form sieht der physikalische Widerspruch für die Gänsefeder folgendermaßen aus: an der Spitze der Feder soll viel Tinte sein und soll überhaupt keine Tinte sein! Es leuchtet ein, dass ohne zusätzliche Analyse und „anatomische Untersuchung“ des Widerspruchs die Aufgabe nicht schnell gelöst werden kann! Die Untersuchungen aber müssen streng nach den vier physikalischen Aspekten erfolgen: Raum, Zeit, Struktur und Stoff. Letztendlich vollzog es sich auch so in der Geschichte der Feder. Jedoch waren diese Erfahrungen vor der TRIZ noch nicht untersucht, akkumuliert und verallgemeinert worden. Die Lösung des Widerspruchs erfolgte nach allen Aspekten (Abb. 9.8). Aufteilen unvereinbarer Eigenschaften
Aspekte War
Wurde
Raum
Die Tintenmenge für das Schreiben befindet sich an der Feder, deshalb können sich am Anfang Kleckse bilden, und bald schon trocknet die Tinte aus, und man muss die Feder neu mit Tinte benetzen. Der Tintenvorrat ist aus dem Schreibgerät ausgegliedert.
Die Tintenmenge für das Schreiben bleibt praktisch unverändert und befindet sich in der Feder. Der Tintenvorrat befindet sich im Schreibgerät in einem speziellen Hohlraum, aus dem die Tinte in benötigter Menge in die Feder gelangt.
Zeit
Die Zeit, in der sich Tinte auf der Feder befindet, bestimmt (beschränkt) die Zeit des Schreibens auf einige Minuten, und diese Zeitintervalle fallen zusammen.
Die Zeit, in der sich Tinte im Schreibgerät befindet ist hundertfach länger als die Zeit, in der sich Tinte auf der Gänsefeder befindet. Diese Zeit kann die Gesamtzeit des Schreibens um ein Vielfaches übersteigen. Bei ununterbrochenem Schreiben reicht der Tintenvorrat einige Stunden. Tinte gelangt nur dann an die Feder, wenn geschrieben wird und gelangt nicht an die Feder, wenn sie nicht aufgedrückt wird.
Struktur Die Tintenmenge „im Schreib- Die Tintenmenge in einem Teil des Systems
Stoff
gerät“ entspricht genau der Tintenmenge an der Feder.
(in der Feder) ist gering, aber im System als Ganzes ist sie groß.
Die Spitze der Feder ist nicht unterteilt und fest. Die Tinte fließt frei an der Oberfläche der Feder.
Die Spitze der Feder ist in zwei Teile unterteilt, die eine Rinne bilden, durch welche die Tinte läuft. Die Rinne ist dynamisiert und weitet sich mehr oder weniger in Abhängigkeit vom Druck auf die Feder.
Abb. 9.8. Lösung des physikalischen Widerspruchs
106
A-Studio: algorithmische Navigation des Denkens
Das Phänomen der unübertroffenen Nützlichkeit des binären physikalischen Widerspruchs besteht in folgendem: 1. in dem Maße wie alle Lösungen letztendlich mit Hilfe realer physikalischer Transformationen realer physikalischer Objekte verwirklicht werden, d.h. durch Veränderung ihrer Materialien, der Form, der Prozesse usw., hat der physikalische Widerspruch eine praktische Navigationsfunktion, er orientiert auf die Realisierung solcher Transformationen am Objekt, bei denen das Hauptaugenmerk auf den nützlichen Zielfaktoren liegt; 2. in dem Maße wie heute fundamentale Verfahren zur Lösung physikalischer Widersprüche gut bekannt sind (s. Abschn. 12 Modelle für die Lösung physikalischer Widersprüche), hat der physikalische Widerspruch eine effektive einschränkende Funktion bei der Ideenbildung für die Lösung und schließt dabei die irrationale Suche außerhalb der fundamentalen Transformationen aus. Bsp. 32. Trennzaun (Anfang). In Abb. 9.9a finden Sie einen Trennzaun, der die Richtung und Breite für Ströme von Menschen vorgibt. a) Solche Zäune findet man z.B. bei Ausstellungen. Die Konstruktion solcher Zäune ist nicht stabil, und wenn sich Besucher darauf abstützen, können sie umfallen. Aus diesem Grund wird das untere Ende der Zäune breiter geb) macht und der Zaun selbst wird durch schräge Stützen gesichert (Abb. 9.9b). Aber auch diese Konstruktion hat einen wesentlichen Mangel – Abb. 9.9. Ausgangskonstruktion sie lässt sich leicht seitlich verschieben, besondes Trennzauns ders auf Stein- oder Asphaltuntergründen. Der physikalische Widerspruch: der Zaun soll am unteren Ende breit sein, damit er sich nicht leicht bewegen lässt, und er soll schmal sein, um leicht transportiert, auf- und abgebaut werden zu können. Bsp. 33. Reaktionsfähigkeit von Kraftfahrern (Anfang). Es ist bekannt, dass Alkohol die Geschwindigkeit senkt, mit der Autofahrer auf veränderte Straßenverhältnisse reagieren. Viele Kraftfahrer denken aber, dass sie das nicht betrifft. Und so wiederholen sie die Fehler anderer mit oft tragischem und folgenschwerem Ausgang. Wie kann man aber Autofahrer von der realen und großen Gefahr überzeugen, die sie erwartet, wenn sie unter Alkoholeinfluss fahren? Wir haben es hier mit einem verschärften physikalischen Widerspruch zu tun (und einem ethischen übrigens auch): Der Kraftfahrer soll betrunken sein, damit sich beim Fahren des Autos für die Erkenntnis der Gefahr Veränderungen vollziehen, und der Kraftfahrer soll nicht betrunken sein, damit keine realen Gefahren für ihn und seine Umgebung entstehen. Wie kann dieser Widerspruch beseitigt werden? Bsp. 34. Pfeiler (Anfang des letzten Beispiels zum Pfeiler). Das Einschlagen der Pfeiler hat immer noch einen nicht zu beseitigenden Mangel, der die unmittelbare Folge des angewendeten Prinzips der Schlageinwirkung ist. Es sollte auch bemerkt werden, dass der Prozess des Einschlagens des Pfeilers viel Energie verbraucht. Hinzu kommt, dass ein bedeutender Teil dieser Energie für die Zerstörung des Pfeilers selbst aufgewendet wird. Diesem Prozess ist ein starker
9 Vom Bestehenden zum Entstehenden
107
physikalischer Widerspruch zueigen: der Pfeiler muss eingeschlagen werden, damit er in den Boden gelangt, und der Pfeiler darf nicht eingeschlagen werden, damit er nicht zerstört wird. Vielleicht haben Sie eine neue Idee für eine Technologie des „zerstörungsfreien“ Einschlagens von Pfeilern? Bsp. 35. Reparatur von Rohrleitungen (Anfang). Ein Wasserrohr ist geplatzt! Es muss schnell repariert werden, aber das Wasser strömt mit großem Druck aus dem Rohr, und es ist nicht möglich den Riss zu verschließen oder zu verschweißen. Die Wasserversorgung im ganzen System zu unterbrechen, ist oft aus verschiedenen Gründen nicht machbar oder sinnvoll. Eine gefährliche Havariesituation: das Wasser muss aufgehalten werden, um die Reparatur des Rohrs durchführen zu können, und das Wasser darf aus äußeren Gründen nicht angehalten werden. Bsp. 36. Schreibtafel (Verschärfung der Problemsituation nach Bsp. 30). Die technischen Widersprüche, aus Beispiel 30, kann man verallgemeinern in Form eines physikalischen Widerspruchs: die Tafel muss da sein, damit darauf Illustrationen zum Unterricht gemacht werden können, und die Tafel soll nicht da sein, damit auf ihr nicht gezeichnet werden muss. Haben Sie eine Lösung vor Augen, oder haben Sie im Gegenteil endgültig das Vorgefühl einer Lösungsmöglichkeit verloren? Keine Eile, denken Sie sich in die „unvereinbaren“ Alternativen dieses Modells hinein! Bsp. 37. Kuppel des Reichstags (Verschärfung der Problemsituation nach Bsp. 31). Der physikalische Widerspruch in der Konstruktion aus Abb. 9.7. könnte folgendermaßen klingen: die Besucher müssen nach unten gelangen, wenn sie die Aussichtsplattform verlassen, und sie sollen nicht nach unten gelangen, damit sie nicht die nach oben kommenden Besucher behindern. In dieser Formulierung klingt natürlich etwas Ironie mit, obwohl die Aufgabe der Projektierung einer Konstruktion für die Beförderung von Besuchern der Kuppel nach oben oder unten durchaus realistisch ist. Außerdem wollte ich damit zeigen, dass in der Praxis auch solche nicht ganz ernst zu nehmenden Formulierungen auftauchen können. Davor sollte man keine Angst haben, und man sollte sie auch nicht meiden. Das hilft manchmal sogar dabei, eine Aufgabe leichter zu lösen, eben ohne „tierischen Ernst“, wie es Nils Bohr62 einst bemerkte. Was uns dann auch später im Abschnitt 9.3 Transformationen wieder begegnen wird. Wenn Sie also bisher die TRIZ noch gar nicht kannten, können wir jetzt annehmen, dass Sie erste Erfahrungen bei der Konzentration und Modellierung von Problemen in Form von Widersprüchen sammeln konnten – technischer und physikalischer Art. Ich hoffe, dass die Beispiele auch dazu gedient haben, Ihnen den wesentlichen Unterschied zwischen technischen und physikalischen Widersprüchen bei der Modellierung ein und derselben Problemsituation verständlich zu machen. Um das selbst überprüfen zu können, sollten Sie versuchen die Aufgaben des Praktikums 6-9 selbstständig zu lösen.
62
Nils Bohr (1885-1962) – führender dänischer Physiker, Schöpfer der Quantentheorie des Atoms und Atomkerns, Nobelpreisträger 1922
108
A-Studio: algorithmische Navigation des Denkens
9.2 Funktionales ideales Modellieren Psychologen und Neurophysiologen haben bei ihren Untersuchungen auf unterschiedlichen Ebenen gemeinsam einige Geheimnisse über den Aufbau und die Funktionsweise des menschlichen Gehirns aufgedeckt. Jedoch hat noch niemand die Quellen der Genialität beim Denken entdeckt! Die Quellen des Strebens nach Schöpfertum! Die Dominanten und Imperative des Glaubens, der Liebe, der Hoffnung und des Guten! Sie existieren zum Glück in uns von selbst in Einklang mit den noch mächtigeren Prinzipien des Aufbaus unseres Universums. Deshalb wollen wir hier auch nur ein äußerst vereinfachtes Schema verwenden, das oberflächlich nicht den Prozess des Erfindens einer neuen Idee widerspiegelt, sondern nur die Komponenten, die den Prozess des Denkens nach der TRIZ unterstützen (Abb. 9.10). Dieses Schema unterscheidet sich vom Schema in Abb. 2.3 darin, dass hier absolut notwendige individuelle Aspekte des Denkens berücksichtigt werden.
Ist (das Bestehende)
Motivation Fähigkeiten Ausbildung
+
Soll sein (das Entstehende)
Ideales Resultat Widerspruch Navigatoren-Analogien Ressourcen Abb. 9.10. Wichtigste Aspekte der TRIZ-Lösung von Problemen
Notwendige Bedingungen für die erfolgreiche Lösung von Problemen sind: - starke positive Motivation, Entschlossenheit, Ausdauer (Wille) beim Anstreben des Ziels; - bestimmte Fähigkeiten für das assoziative Denken, Gedächtnis, Vorstellungskraft, Beobachtungsgabe, Objektivität, Flexibilität (die Fähigkeit, die Trägheit des Denkens zu überwinden); - professionelles Wissen und Beherrschen der TRIZ/CROST-Technologie. In unserer Welt streben alle nach einem Ideal! In der Art, wie es sich jeder vorstellt. Der Weg aber zu diesem Ziel ist oft nicht sofort erkennbar und fast immer nicht gerade leicht! Und mehr noch, die Suche und auch die Wahl eines Ziels, das wert scheint, ständig im Auge behalten zu werden, und wonach es sich lohnt zu streben – das ist auch für fast alle von uns ein nicht gerade einfaches Problem. Wenn wir das zur Kenntnis nehmen, können wir mit der Erörterung des Themas „ideales Modellieren“ beginnen, dem vielleicht schwierigsten Thema der TRIZ, auch bei einfachen und durchschaubaren Beispielen. Bsp. 38. Vase im Museum. In Museen werden oft wertvolle Exponate in Vitrinen oder in Wänden integrierten Nischen ausgestellt. In solchen Fällen ist es aber nicht möglich, diese Exponate von der Rückseite oder von unten zu betrachten, was dazu führt, dass die Ausstellungsstücke nicht in ihrem vollen Wert betrachtet werden
9 Vom Bestehenden zum Entstehenden
109
können. Was aber interessiert uns denn hier ganz speziell? Die Möglichkeit, die Vase von allen Seiten sehen zu können, und sogar von unten. Aber, ohne um die Vase herumgehen oder uns nach unten beugen zu müssen, um unter die Vitrine sehen zu können. Meistens ist es ja auch so, dass man gar nicht um die Vase herumgehen kann, weil sie in einem Regal an einer Wand steht, und das Regal nicht durchsichtig ist! Dann lassen Sie uns doch etwas (vorerst!) nicht reales fordern: soll uns doch die Wand und das Regal selbst die Vase von allen Seiten zeigen! Und genau solche Aussagen müssen nach der TRIZ erlernt werden! Das ist genau die Formulierung einer zielgerichteten Metapher in Form des „funktional idealen Modells“ - FIM. Ja, diese Metapher ist genau das Bild dessen, was wir erreichen möchten. Dieses Bild ist aber funktional, es beinhaltet das konkrete erwartete Ergebnis. In der klassischen TRIZ wird dieses Bild auch als „ideales Endresultat“ – IER bezeichnet. Ich bin fast sicher, dass sie spätestens jetzt bereits die bekannte Kontrolllösung gefunden haben, um das FIM oder IER für diese Aufgabe zu erreichen: es müssen Spiegel hinter und unter der Vase installiert werden! (Wenn Ihnen die Aufgabe zu leicht erscheint, und sie Lösung zu offensichtlich, bitte ich Sie diesem Beispiel gegenüber nicht ganz so streng zu sein. Es dient ja nur Lehrzwecken. Übrigens finden Sie eine kleine Komplikation bei dieser Aufgabe, wenn die Spiegel unter der Vase installiert werden müssen. Beseitigen Sie diese selbst. Dabei kann man gut üben, den Meta-ARIZ anzuwenden. Wenn Sie glauben, diese Komplikation rein spekulativ schon gefunden zu haben, dann stellen Sie doch einmal zu Hause eine Vase auf einen Spiegel und versuchen Sie ihren Boden zu sehen. So stoßen Sie sofort auf diese Komplikation). Bsp. 39. Kiel einer Segelyacht. Segelyachten bewegen sich stabil unter ihren Segeln dadurch fort, dass unter ihrem Boden ein Kiel vorhanden ist, ein Kursstabilisator. Wenn die Yacht in flaches Wasser im Hafen zur Anlegestelle gelangt, stört der Kiel, weil er auf den Boden drückt. Was wiederum ist hier für uns von Interesse? Die Möglichkeit problemlos in flaches Wasser zu gelangen, ohne mit dem Kiel gegen den Grund zu stoßen. Formulieren wir das „administrative“ FIM: die Yacht gelangt problemlos in flaches Wasser, dessen Tiefe etwas mehr ist als ihr Tiefgang, d.h. als der Abstand zwischen Wasseroberfläche und tiefstem Punkt des Bodens der Yacht. Formulieren wir das „technische“ FIM: in flachem Wasser hat die Yacht keinen Kiel. Wir können ja nicht fordern, dass flaches Wasser plötzlich tief wird. (In anderen Fällen sind aber auch solche Metaphern nicht auszuschließen!) Aber der Kiel ist da, wenn das Wasser tief ist, und mit hoher Geschwindigkeit gesegelt werden kann. Wir haben es mit einem klaren physikalischen Widerspruch zu tun! Wir kennen bereits Verfahren ihn zu beseitigen. Und wir erkennen schon die deutliche Unvereinbarkeit im Raum (geringe Tiefe – große Tiefe) und in der Struktur (der Kiel ist da – der Kiel ist nicht da). Logischerweise sind diese Ressourcen die kritischen in der Aufgabe und werden bei der Lösung dominieren. Sicher haben Sie schon die grundlegende Idee gefunden: der Kiel der Yacht muss dynamisiert werden – er muss angehoben und abgesenkt werden können. Technisch aber, ist das gar nicht so einfach umzusetzen. In der Mitte der Yacht muss eine spezielle Luke eingebracht werden, die manchmal offen ist (Abb. 9.11). Das aber ist insgesamt nicht gerade der Stabilität des gesamten Rumpfes zuträglich, da der untere Kielbalken das eigentliche „Rückgrat“ der Yacht bildet. Hier aber muss
110
A-Studio: algorithmische Navigation des Denkens
man in ihm einen Längsschnitt durchführen. In einer anderen Variante werden zwei Hebestabilisatoren für den Kiel an den Bordwänden der Yacht installiert, was die Steuerung erschwert und sich auf die Geschwindigkeit negativ auswirkt. Und obwohl Yachten schon eine jahrhundertelange Entwicklung durchlaufen haben, gibt es hier noch immer viele Themen für das Erfinden! Bsp. 40. Stromabnehmer von Straßenbahnen. Stromabnehmer haben oft die Form eines Bogens. Der obere Teil befindet sich quer zur Stromleitung, wodurch die Straßenbahn mit Elektrizität versorgt wird. Der Bogen hat eine Federung und drückt ständig auf die Stromleitung. Die Bogenform gewährleistet einen zuverlässigen Kontakt mit den Leitungen in Kurven, jedoch schneidet die Leitung in geraden Streckenabschnitten Vertiefungen in den Bogen. Das kann zum Reißen der Leitung führen. Wie lässt sich dieses Problem minimieren oder sogar beseitigen? Was ist hierbei für uns interessant? Da wir nicht ausschließen können, dass es zu einem unmittelbaren Kontakt der Leitung mit dem Bogen des Stromabnehmers kommt, wollen wir doch die Realisierung des IER fordern: die Leitung schneidet nicht an ein und derselben Stelle den Bogen. Wir wissen noch nicht, wie wir dieses IER erreichen können, aber so soll es ja auch sein! Es ist völlig logisch, die Ausgangsmetapher folgendermaßen umzuformulieren: die Leitung berührt also nicht den Bogen an einer Stelle, sondern an vielen Stellen entlang des Bogens, in etwa so, wie es in Kurven passiert! Von hier geht schon ein wichtiger Schritt in Richtung Kontrolllösung: auf den geraden Streckenbereichen der Straßenbahn müssen die Kontaktleitungen im Zickzack verlaufen, deren Größe der Länge der Kontaktteile des Bogens entspricht (Abb. 9.12). Das verteuert natürlich die Konstruktion der Aufhängungen der Leitungen, verlängert aber die Lebensdauer der Bögen und verhindert die Möglichkeit des Abreißens der Leitung durch einen defekten Bogen, wie in der alten Variante.
Abb. 9.11. Yacht mit zentralem Kielstabilisator
Abb. 9.12. Zickzackförmige Kontaktleitung
In allen betrachteten Fällen sind wir praktisch allein auf der Grundlage einer genauen Formulierung des funktionalen idealen Modells oder des idealen Endresultats zur Lösung gekommen. Natürlich ist es manchmal ausreichend das Ziel der Lösung einer Aufgabe zu formulieren, da das Ziel selbst schon eine Lösungsidee voraussagt. In den untersuchten Beispielen reichte es aus, das FIM oder IER in den Mittelpunkt der Aufmerksamkeit zu rücken, und die notwendigen Ressourcen zeigten sich praktisch von selbst. Im Unterschied zu diesen Beispielen sind reale Beispiele natürlich oft nicht so einfach. Jedoch spielt bei der Lösung ohne Ausnahme aller Probleme die Formulierung des funktional idealen Modells eine äußerst wichtige Rolle. Das FIM und das IER motivieren das kreative Denken und richten es in den Bereich der Existenz effektiver Lösungen.
9 Vom Bestehenden zum Entstehenden
111
Weitreichendere system-technische Prinzipien für die Formulierung von FIM und IER werden im Abschnitt 12 Steuerung der Systementwicklung erörtert. Hier wollen wir uns zunächst nur auf eine intuitive Formulierung des „idealen“ Funktionierens eines Objekts bei der Lösung von Problemen stützen. Kommen wir zu den Hauptdefinitionen in der aktuellen Fassung. Ideales Endresultat IER – das ist der geforderte oder gewünschte Zustand eines Objekts. Funktional-ideales Modell FIM – das ist ein Bild, eine Hypothese, eine Metapher, welche die Vorstellung davon beinhaltet, wie ein Objekt funktionieren soll, um das IER zu erreichen. In den meisten Fällen wird das FIM formuliert, da es mehr Informationen darüber liefert, wie das Objekt nach seiner Veränderung funktionieren soll. Außerdem ist das IER oft irgendwie im FIM versteckt und nur nicht explizit benannt. In Abhängigkeit davon, worauf das IER gerichtet ist, unterscheidet man zwei Typen von FIM: FIM-minus: Beschreibung (Ziel, Forderung, Bedingung, Prozess) des gewünschten Funktionierens minus negativer Erscheinungen, die den Widerspruch hervorriefen; FIM-plus: Beschreibung (Ziel, Forderung, Bedingung, Prozess) des gewünschten Funktionierens plus Wirkungen oder Ressourcen, die zur „Selbstbeseitigung“ des Widerspruchs führen. Das Modell FIM-minus wird meist bei ersten Erörterungen des Problems konstruiert. Das Modell FIM-plus ist konstruktiver und schließt in verdeckter Form das FIM-minus ein. Für die Konstruktion des FIM-plus verwendet man klassische Formulierungen. Aber alle gehen davon aus, dass die Lösung nur auf der Basis von Veränderungen vorhandener und/oder durch die Einführung zusätzlicher Ressourcen gefunden werden kann. Je näher die Beschreibung des FIM der Realität kommt, desto besser. Das Problem aber ist, dass wir nicht in der Lage sind, genau zu beschreiben, wie das FIM oder IER erreicht werden kann. Deshalb kommt es oft zu Formulierungen mit Eigenschaften, die nicht frei von psychologischen Einschränkungen sind. Um die psychologische Trägheit bei der Formulierung des FIM abzuschwächen, wurden in der TRIZ im Verlaufe mehrerer Jahrzehnte folgende zwei Regeln aufgestellt, die sich in der Praxis bewährt haben: 1) nicht gleich daran denken, wie genau und wodurch eine Lösung gefunden werden kann; 2) unbekannte Ressourcen oder Wirkungen, die für das Erreichen des Ergebnisses notwendig sind, können zeitweise durch metaphorische Symbole ersetzt werden, wie z.B. X-Ressource. Hier verwendet die TRIZ ganz klar ein Verfahren zur Lösung offener und verschärfter „physikalischer“ Widersprüche, die in unserem Bewusstsein entstehen: es muss Ressourcen geben, damit das Problem gelöst werden kann, und Ressourcen sollen nicht da sein, da sie einfach nicht bekannt sind. Die TRIZ empfiehlt: ersetzten Sie zeitweise eine unbekannte Ressource durch ihr Bild (Lösung von Unvereinbarkeiten in der Zeit), d.h. durch eine Kopie, selbst, wenn sie unklar ist (Lösung von Unvereinbarkeiten in Raum-Stoff-Energie)!
112
A-Studio: algorithmische Navigation des Denkens
Hier finden wir auch die Lösung eines Widerspruchs in der Struktur. Das Unmögliche ist im „X“ verborgen! Insgesamt aber sieht das FIM bereits so aus, als wäre es im Bereich des Möglichen! Ein Teil des FIM beinhaltet das Unbekannte, aber das gesamte FIM ist bekannt! Unser Bewusstsein macht das Unmögliche möglich, und dabei hilft, dass verbal gesehen, alles gar nicht unmöglich scheint! Und so schauen wir uns nun praktische Modelle an, genauer gesagt vorbereitete Formen für die Fixierung von Modellen vom Typ FIM-plus: 1. Macro-FIM: Eine X-Ressource, die keine unzulässigen negativen Effekte hervorruft, gewährleistet gemeinsam mit anderen vorhandenen Ressourcen den Erhalt der Lösung [die geforderte Funktionsweise] 2. Micro-FIM: Eine X-Ressource in Form von Stoff- oder Energieteilchen befindet sich in der operativen Zone und gewährleistet zusammen mit anderen vorhandenen Ressourcen den Erhalt der Lösung [die geforderte Funktionsweise]. 3. Maxi-FIM: Die operative Zone gewährleistet selbst den Erhalt der Lösung [die geforderte Funktionsweise]. An dieser Stelle möchte ich zwei Aussagen vom Autoren der TRIZ Genrich Altschuller über die Rolle des funktional idealen Modellierens bei der Lösung von Problemen anführen. Aus dem Werk [4], das erstmals in russischer Sprache 1979 erschien: „Das ideale Endresultat kann man mit einer Leine vergleichen, an der sich ein Bergsteiger festhält, wenn er eine steile Bergwand erklimmt. Die Leine zieht ihn nicht nach oben, sie gibt ihm aber Halt und schützt ihn davor abzustürzen. Lässt man diese Leine los, fällt man unweigerlich in die Tiefe.“ Aus dem Werk [3]: „Stellen Sie sich vor, jemand ist in eine Sackgasse geraten. Und jemand schlägt Ihnen vor, in dieser Sackgasse weiterzugehen (um den Ausgang zu finden – M.O.). Was soll man dazu sagen – ein wenig nützliches Unterfangen! Man muss anders vorgehen: zunächst an den Ausgangspunkt zurückkehren, und dann in die richtige Richtung gehen. Leider sind Aufgaben meistens so formuliert, dass sie hartnäckig (oft kaum spürbar) in eine Sackgasse führen.“ IER und FIM helfen dem Erfinder aus der Sackgasse heraus, in die ihn die psychologische Trägheit führt, und gibt ihm einen sicheren Orientierungspunkt in Richtung gelungene Lösung, wie unmöglich sie auch immer am Anfang scheint! Kommen wir zu weiteren Beispielen. Bsp. 41. Geländegängiger LKW. Geländegängige LKWs, die große Konstruktionsteile in unwegsamen Geländen transportieren, müssen hohe Räder haben und einen großen Spielraum zwischen unterstem Punkt des Rads und unterstem Punkt des Fahrzeugbodens. Dann jedoch befindet sich der Schwerpunkt des Fahrzeugs relativ weit oben, und so besteht die Gefahr, dass es auf unebenen Strecken ins Kippen gerät. Um das zu verhindern, muss das Fahrzeug einen so tief wie möglichen Schwerpunkt haben. Ein starker physikalischer Widerspruch! Formulieren wir das Macro-FIM: eine X-Ressource, die keine unzulässigen negativen Effekte
9 Vom Bestehenden zum Entstehenden
113
hervorruft, gewährleistet gemeinsam mit anderen vorhandenen Ressourcen den Erhalt der Lösung, eine maximal niedrige Position des Schwerpunkts des Fahrzeugs. Maximale Stabilität wird erreicht, wenn der Schwerpunkt sich am Boden befindet! Wie kann man erreichen, dass der Schwerpunkt des Fahrzeugs dem Boden so nahe wie möglich ist? Es muss eine X-Veränderung im System vorgenommen werden, bei der sich so viel Gewicht des Systems wie möglich, ganz unten befindet. Aber so ein Geländelaster ist eine Konstruktion, die sich nur schwer verändern lässt. Ihr leichtester Teil ist das Fahrerhaus, das sich schon oben befindet, solche Teile wie der Motor und die Übertragungsteile können nicht tiefer als der tiefste Punkt des Fahrzeugs gelegt werden! Tiefer befindet sich nur der untere Teil der Räder. Die Räder selbst sind sehr groß und breit, haben aber keinen Einfluss auf den Spielraum zwischen Rad und Fahrzeug. Was kann man tun? Wenn Sie noch keine Idee haben, lassen Sie uns zunächst die operative Zone definieren. Als OZ könnte man die Berührungsfläche der Räder mit dem Boden ansehen. Das Kippen beginnt dann, wenn die Räder sich auf einer Seite des Fahrzeugs vom Boden lösen. Ein maximal tiefer Schwerpunkt drückt in gewisser Hinsicht diese Berührungsfläche auf den Boden. Es wäre sehr günstig, wenn der vordere Teil dieser Fläche in der operativen Zone irgendwie an den Boden „angedrückt“ würde. Der Druck auf den hinteren Teil der Fläche müsste schon nachlassen, so dass dieser Teil sich bereits am rollenden Rad nach oben bewegen würde. Und all das sollte ununterbrochen beim Rollen der Räder ablaufen! Formulieren wir das Micro-FIM: Eine X-Ressource in Form von Stoff- oder Energieteilchen befindet sich in der operativen Zone und gewährleistet zusammen mit anderen vorhandenen Ressourcen das maximale Andrücken der Räder an den Boden. Wie kann man das außerhalb des Rades machen, das ist schwer vorstellbar. Wir könnten doch aber die Ressource der operativen Zone – die Berührungsfläche – auch von der Innenseite des Rades untersuchen! Man könnte doch in das Rad hinein X-Teilchen einbringen, die auf den vorderen Teil der Berührungsfläche drücken, auf den hinteren Teil aber nicht! Eine derartige Idee wurde in den USA patentiert: ein japanischer Erfinder machte den Vorschlag in die Räder eine Vielzahl kleiner Stahlkugeln einzubringen! Bei Bewegung rollen die Kugeln die ganze Zeit entlang der inneren Oberfläche des Rades und bewirken so eine weitaus tiefere Lage des Schwerpunkts des Fahrzeugs (Abb. 9.13). Das hat irgendwie Ähnlichkeit mit einem bekannten Spielzeug, dem Stehaufmännchen (Abb. 9.14). Im kugelförmigen Unterteil ist hier ein Metallstück befestigt, welches die ganze Puppe vollständig im Gleichgewicht hält. Deshalb richtet sie sich immer auf und steht senkrecht auf geraden Flächen! Verifizieren Sie die gefundene Lösung und überprüfen Sie, in welchem Maße das FIM ideal umgesetzt wurde. Vielleicht musste man in der Realität doch ein wenig vom „Ideal“ (völlig umsonst und keine negativen Nebeneffekte) abrücken und für den Erhalt des geforderten Effekts in irgendeiner Form zahlen? Bsp. 42. Winterschuhe. Wie auch immer das Profil der Sohle oder des Absatzes von Schuhen gestaltet ist, bei Glatteis hilft das wenig. Wenn man die Schuhe mit Spikes versieht, kann man damit nicht in Räume gehen. Man kann spezielle
114
A-Studio: algorithmische Navigation des Denkens
Unterlagen mit Spikes an den Sohlen befestigen, so wie man das auch in vielen nördlichen Gegenden macht. Davon wird der Schuh aber nicht gerade schöner und in Städten ist das nicht üblich (und unnütz!). Was ist zu tun?
Metallstück
Abb. 9.13. Aufbau der Räder eines Geländelasters
Abb. 9.14. Stehaufmännchen
Definieren wir zunächst, was wir in der operativen Zone (Sohle und Absatz) erhalten möchten und versuchen wir das FIM für diese Situation zu definieren. Wir haben schon gelernt, physikalische Widersprüche schnell zu formulieren, was normalerweise schwieriger ist als die Definition technischer Widersprüche. Beziehen wir den physikalischen Widerspruch in folgendes Maxi-FIM ein: die operative Zone gewährleistet selbst das Vorhandensein von Spikes bei Glatteis und das Fehlen von Spikes bei höheren Temperaturen. Was kann idealer sein als die Verwendung einer solchen stofflichen Ressource, wie in folgender Lösung: in die Sohle der Schuhe werden vertikale Metallstäbchen eingebaut, die den Effekt der thermischen Formspeicherung haben?! Bei Temperaturen unter Null treten die Metallstäbchen ein wenig heraus und dienen als Spikes gegen das Rutschen, bei Temperaturen über Null ziehen sich die Stäbchen zusammen, und die Spikes verschwinden. Bsp. 43. Arbeits- oder Esstisch für das Bett. Ein normales Tablett oder eine andere glatte Platte (Tisch), z.B. aus Plastik, ist unbequem für das Essen oder kurze Arbeiten im Bett. Ein Tischchen rutscht und verschiebt sich bei der kleinsten unvorsichtigen Bewegung. In Krankenhäusern werden dazu meist spezielle bewegliche Brettchen oder drehbare Tische verwendet, die sich in bequemer Höhe über dem Bett befinden. Für zu Hause braucht man etwas Einfacheres. Der technische Grund des Problems besteht darin, dass die flache Unterfläche eines Tischs nicht mit der komplizierten Form der unteren Körperhälfte des Menschen, im Bett sitzend oder liegend, übereinstimmt. Notieren wir das Micro-FIM: Eine X-Ressource in Form von Stoffteilchen in der operativen Zone gewährleistet eine maximale Koordination der Form der Unterfläche des Tischs mit der Form des menschlichen Körpers. Hieraus folgt, dass der Unterteil des Tischs zumindest eine dynamisierte Oberfläche haben müsste, die sich leicht an Unebenheiten anpassen kann. Die bekannte Lösung: von unten wird auf der ganzen Fläche des Tischs eine Stoffhülle befestigt, die fast vollständig mit leichten Plastikkügelchen gefüllt ist. Wenn dieser Tisch auf die Beine eines Kranken gestellt wird, wird die Hülle eng anliegend und sicher fixiert.
9 Vom Bestehenden zum Entstehenden
115
Bsp. 44. Treppen einer Gedenkstätte. Die architektonischen Lösungen für Gedenkstätten haben immer das Ziel, emotional auf den Besucher einzuwirken. Viele Gedenkstätten haben die Form von Skulpturkompositionen, die auf natürlichen Erhebungen oder künstlichen Hügeln gebaut werden. Wie kann man erreichen, dass das Verhalten der Besucher, besonders junger Besucher, auf dem Weg zum Hügel, der Würde des Ortes entspricht? Sie haben sicher schon bemerkt, hier haben wir es mit einem klaren administrativen Widerspruch zu tun, nicht wahr? Es muss eine neue Funktion eingeführt werden, konkret, die Gedenkstätte muss selbst ein würdevolles Verhalten erzeugen, wie das zu erreichen ist, lässt sich auf den ersten Blick schwer sagen. In Form eines technischen Widerspruchs kann das folgendermaßen klingen: der Besucherstrom soll nicht schnell sein und sich gleichmäßig bewegen, jedoch gibt es Störungen in Form von sich schnell bewegenden Besuchern. OZ: die Treppe. Maxi-FIM: die Treppe selbst schränkt die Bewegung der Besucher ein. Dieses FIM zielt auf eine Lösung allein durch innere Ressourcen der OZ, durch die Konstruktion der Treppe selbst. Man braucht eine spezielle Treppe! Eine Treppe, welche die Geschwindigkeit der Besucher verringert! Kontrolllösung: die Treppe hat Stufen mit unterschiedlicher Höhe. Die Besucher müssen oft auf ihre Füße schauen, und die Gesamtbewegung bleibt so langsam und würdevoll. Bsp. 45. Flaschen mit gefährlichen Stoffen. Wie kann man eine stark wirkende Arznei so aufbewahren, dass sie für Kinder unzugänglich, jedoch für Erwachsene leicht zugänglich ist, selbst wenn ein Schluck von der Arznei oft dringend und sogar im Dunkeln eingenommen werden muss? In unserer ersten Annäherung an das Problem definieren wir die operative Zone als gesamte Flasche. Dann kann man das Maxi-FIM in Form des folgenden physikalischen Widerspruchs darstellen: die Flasche selbst gewährleistet ihren Schutz vor Kindern und die Erkennbarkeit für Erwachsene! Erinnern wir uns, in der Ausgangsforderung ging es auch um die Erkennbarkeit der Flasche im Dunkeln. Folglich kann es dabei nur eine Tasterkennbarkeit gehen, eine Wahrnehmung mit dem Tastsinn der Finger. Und so handelt es sich hier entsprechend des Maxi-FIM um die Form der Flasche. Die Form der Flasche muss gleichzeitig Träger positiver Informationen für Erwachsene und negativer Informationen für Kinder sein. Kontrolllösung: auf einem Wettbewerb in England gewann die Idee einer „Stachelflasche“. Auf der ganzen Oberfläche der Flasche befinden sich recht spitze Stachel, die zwar keine Verletzungen hervorrufen, die Flasche aber für Kinder uninteressant machen, die gewohnt sind, mit abgerundeten und/oder weichen Spielzeugen zu spielen. Zum Abschluss des Abschnitts FIM können wir feststellen, dass erfinderische Aufgaben immer mehrere Lösungswege haben! Und deshalb muss man sie auch entsprechend mit verschiedenen Methoden lösen, mit verschiedenen Ressourcen, das heißt mit verschiedenen „Schachfiguren“ in diesem komplizierten Spiel. Dabei orientiert das FIM auf das kompromisslose Erreichen des gewünschten Resultats.
116
A-Studio: algorithmische Navigation des Denkens
9.3 Reduktion und Transformationen Die Beseitigung bestehender Unvereinbarkeiten kann mit 5 Hauptverfahren erfolgen: 1. Beseitigung des negativen Faktors oder Neutralisierung der Folgen seines Wirkens; 2. Konstruktion eines inversen Widerspruchs (Umwandeln des negativen Faktors in einen positiven, den Zielfaktor) und Übergang zu ersten Verfahren; 3. Integration inverser Widersprüche unter Ausschluss negativer Eigenschaften; 4. Zerteilen gleichwertiger, jedoch im Konflikt stehender positiver Wirkungen nach Zeit, Raum oder anderen Ressourcen, welche den Grund für den Konflikt bilden; 5. Ersatz der Aufgabe unter Beseitigung des Konflikts im Ganzen. In jedem Fall vollzieht sich der Prozess der Transformation in der TRIZ nach dem Schema, das ich als Mini-Algorithmus der Transformation oder Mini-ARIZ (Abb. 9.15) bezeichne. Die zwei Hauptschritte des Mini-ARIZ unter den Nummern 1 und 3 gehören nur zu den Etappen Reduktion und Transformation und sind unmittelbar mit der Lösung des konkreten Widerspruchs und dem Generieren der Lösungsidee verbunden. Der Schritt 2 widerspiegelt den Übergang zwischen den Etappen Reduktion und Transformation. Der Pfeil 4 zeigt die mögliche Rückkehr zur Reduktion, z.B. für eine zusätzliche Konkretisierung von Modellen oder die Suche neuer Ressourcen.
REDUKTION Standardmodell des Widerspruchs
TRANSFORMATION 2
Modelle in Standardform bringen. Ressourcen mobilisieren. FIM formulieren.
Lösung in allgemeiner Form, Demonstration von Lösungsbeispielen (Analogie)
3
Generieren der Lösungsidee
1 Ausgangsmodell des Widerspruchs
DIAGNOSTIK
4
Lösungsidee
VERIFIKATION
Abb. 9.15. Mini-Algorithmus der Transformation (Mini-ARIZ)
9 Vom Bestehenden zum Entstehenden
117
Sicher haben Sie schon bemerkt, dass früher in vielen unserer Beispiele eine verkürzte Beschreibung des Lösungsprozesses dargestellt wurde, die nur die Schritte der Mini-ARIZ umfasste. Diese Herangehensweise wollen wir auch in diesem Abschnitt fortsetzen, zumindest für die ersten Beispiele. Die Reduktion ist eine verbindende Zwischenetappe zwischen Diagnostik und Transformation. In dieser Etappe betrachten wir nur eine konkrete Aufgabe, die in einer operativen Zone konzentriert ist. Die Reduktion des Problems umfasst die Auswahl der Verfahren und der TRIZ-Standardmodelle, für die Lösungen in allgemeiner Form bekannt sind, die Formulierung des funktional idealen Modells und des idealen Endresultats, die Suche nach potentiell nützlichen operativen Ressourcen. Die Transformation ist im wahrsten Sinne des Wortes die entscheidende Etappe der Meta-ARIZ. In der Etappe der Transformation begegnen wir der Disziplin des Denkens und der Inspiration, der Logik und Intuition, der Erfahrungen und Motivation, der Zielstrebigkeit bei der Suche neuer Ideen. In dieser Etappe kann dann die gesamte vorbereitende Arbeit nach der TRIZ ihren großartigen Effekt entfalten. Wie eben die Diagnose der Problemsituation, welche mit der Konstruktion der operativen Zone, der Definition der Ausgangsmodelle der Widersprüche und der Reduktion der ursprünglichen Beschreibungen auf standardisierte Beschreibungen endet. Und genau hier sind Sie unmittelbar mit dem letzten verzweifelten Widerstand des Problems konfrontiert, mit der ungewissen Zukunft Ihrer Erfindung oder Ihrer Serie von Erfindungen. Viel Erfolg! Die Modelle der TRIZ/CROST bilden in der Etappe der Transformation Instrumente für das Denken. Die Beispiele im folgenden Abschnitt sind dafür bestimmt, zu verstehen, wie diese TRIZ-Instrumente angewendet werden können. Wie lange man sich im Prozess der Problemlösung sicher auf der Basis von Analogien bewegen kann, und von wann an eigene kreative Anstrengungen notwendig sind. Kurz gesagt, es gibt nicht auf alle Probleme fertige Antworten! Es gibt aber in der TRIZ Modelle und Empfehlungen, wie in kürzester Zeit die richtigen Antworten gefunden werden können. Mindert das den Nutzen der TRIZ? Oder werden Sie nun keine Lust mehr haben, die TRIZ bei der Lösung eines konkreten Problems anzuwenden? Diese Fragen müssen wir natürlich für jeden denkenden Menschen gemeinsam richtig und eindeutig beantworten. Lassen Sie uns nun unter Berücksichtigung unserer Fertigkeiten, die wir beim Re-Inventing erworben haben, speziell der Fertigkeiten bei der Akkumulation und Verallgemeinerung von Beispielen, über einige Fragen nachdenken: - kennen Sie einen hervorragenden Schachspieler, der nie die Theorie des Schachspiels erlernt hat und nicht Hunderte und Tausende Schachetüden und Partien anderer talentierter Vorgänger und Zeitgenossen studiert hat? - kennen Sie einen genialen Pianisten, der nicht die Musiktheorie studiert hat, der nicht Tausende Tonleitern und Etüden, Stücke und schwierige Passagen neuer Werke immer wieder gespielt hat? - kennen Sie einen berühmten Mathematiker, der nicht zunächst Arithmetik, Geometrie und Algebra erlernt hat und sich nicht an Tausenden mathematischen Aufgaben geübt hat?
118
A-Studio: algorithmische Navigation des Denkens
- kennen Sie einen Maler, der nicht die Elemente der Malerei, Komposition und des Zeichnens erlernt hat, keine Studien gezeichnet und nicht die Werke der alten und neuen Meister studiert hat? - kennen Sie, schließlich, einen bekannten Box- oder Karatechampion, der zum Sieger wurde nachdem er ein paar Lehrbücher gelesen hat, aber keine jahrelange Trainingspraxis hatte, und der nicht komplizierteste Bewegungselemente über einfachste Elemente erlernt hat und nicht an seiner psychischen Stabilität und seiner Konzentrationsfähigkeit gearbeitet hat? Ich denke mal, dass Sie selbst schon lange Ihre Schlussfolgerungen gezogen haben, wie das in Bezug auf die TRIZ-Konzeption der idealen Modellierung zu bewerten ist. Die TRIZ hat theoretische Prinzipien und Modelle, Etüden mit verschiedenen Schwierigkeitsgraden, hat eine Strategie und Taktik und sogar Vorstellungen über die „Schönheit“ einer Lösung! Dazu kommen wir aber erst später, jetzt geht’s an die „Etüden“! An die Etüden des A-Studios! Zunächst kommen wir zu einigen Aufgaben aus dem Praktikum zum Teil „Algorithmische Navigation des Denkens“. Bsp. 27. Trainingsstation im Fitnesscenter (Abschluss). Die Reduktion zeigt, dass die Ressourcen der Fläche äußerst begrenzt sind. Man muss die Lösung in Richtung des folgenden idealen Resultats suchen: neue Fitnessgeräte nehmen keinen zusätzlichen Platz ein! Die Auswahl der passenden Faktoren aus der AMatrize führt zu folgendem konkretisierten Modell des technischen Widerspruchs: Plus-Faktor Erhöhung der Anzahl von Fitnessgeräten Minus-Faktor
Erhöhung der Anzahl der Besucher
Plus-Faktor 01: Produktivität
Vergrößerung der belegten Fläche
Minus-Faktor18: Fläche des Unbeweglichen
Transformation. Die A-Matrize empfiehlt folgende Navigatoren aus dem AKatalog: 01 Veränderung des Aggregatzustands, 02 Vorherige Wirkung, 19 Übergang in eine andere Dimension und 34 Matrjoschka. Eine gemeinsame Interpretation der Verfahren 19 und 34 scheint recht konstruktiv. Entsprechend dem Navigator 19 kann man die Ressource Höhe des Raums verwenden und entweder das Gerät auf eine zusätzliche Ebene heben oder es vertikal anordnen. Der Navigator 34 orientiert direkt auf die Anwendung entweder ausziehbar/einfahrbarer Konstruktionen, oder auf die Zusammenführung mehrerer Trainingsgeräte in eine Konstruktion. Abb. 9.16. Trainingsstation mit 4 Funktionsseiten
Das Beispiel einer bekannten Lösung sehen Sie in Abb. 9.16: das Trainingsgerät
9 Vom Bestehenden zum Entstehenden
119
gestattet es, von allen vier Seiten verschiedene Übungen zu machen, da die beweglichen Belastungselemente auf jeder der vier Seiten der Trainingsstation montiert sind, und die Zugelemente mit Rollen durch Konsolen hindurchgeführt wurden, die auf verschiedenen Ebenen, entsprechend dem Typ der Übung, installiert sind. Bsp. 28. Einschlagen von Pfeilern mit Vibrationsschlag (Abschluss). Die Analyse zeigt, dass man sich wohl der Ressource des Materials der Pfeiler zuwenden muss. Formulieren wir das Micro-FIM: Eine X-Ressource in Form von Stoffteilchen in der operativen Zone gewährleistet die Bewegung des unbeschädigten Pfeilers! Das reduzierte Modell in Form zweier alternativer technischer Widersprüche lautet folgendermaßen: Plus-Faktor
Geschwindigkeit des Prozesses erhöhen
Einschlagen des Pfeilers
Minus-Faktoren
Geringere Zuverlässigkeit. Mehr Ausschuss
Plus-Faktor 22: Geschwindigkeit Minus-Faktor 04: Zuverlässigkeit Minus-Faktor 13: Äußere schädliche Faktoren
Transformation. Aus zwei Kästchen der A-Matrize erhalten wir folgende Navigatoren: 01 Veränderung des Aggregatzustandes (zweifach), 03 Zerteilen, 04 Ersatz der mechanischen Materie (zweifach), 13 Billige Nichtlanglebigkeit als Ersatz für teure Langlebigkeit, 28 Vorher untergelegtes Kissen, 36 Rückkopplung. Im Prinzip haben alle Navigatoren interessante Interpretationen! Untersuchen Sie die Navigatoren selbstständig und vergleichen Sie diese auch mit der Lösung für das Beispiel 34. Zu Lehrzwecken konzentrieren wir uns auf eine bekannte Lösung (Abb. 9.17) nach Navigator 04, der im speziellen, empfiehlt: b) Verwendung elektrischer, magnetischer und elektromagnetischer Felder für die Wechselwirkung mit dem Objekt; d) Verwendung von Feldern in Verbindung mit ferromagnetischen Teilchen. Dem Material der Pfeiler wird ein ferromagnetisches Pulver zugesetzt. Außerdem befindet sich im Pfeiler eine Stahlarmatur. Der Pfeiler wird in einen schweren Zylinder gesteckt, zu dem ein ringförmiger elektromagnetischer Induktor gehört, der Stromimpulse generiert. Das entstehende magnetische Feld tritt in Wechselwirkung mit den ferromagnetischen und metallischen KomponenAbb. 9.17. Pfeiler mit ten im Pfeiler und entwickelt so eine mechanische elektrodynamischem Kraft, die den Pfeiler nach unten bewegt. Verfahren der Bewegung
120
A-Studio: algorithmische Navigation des Denkens
Die Wahl der Form der Impulse und der Stromstärke ermöglicht verschiedene Bewegungsabläufe der Pfeiler, um Schlag- als auch Vibrationswirkungen zu erzeugen. Wenn wir die Reihe der Transformationen von der ersten Aufgabenstellung bis hin zur gefundenen Lösung betrachten, kann man feststellen, dass sich der Charakter der Wirkungen in der operativen Zone verändert hat: punktuelle Wirkung (Ausgangsverfahren des Einschlagens) – oberflächliche Wirkung (über Vermittler) – räumliche Wirkung (durch Vermittlung ferromagnetischer Teilchen). Das ist die Umsetzung des Prinzips der Dynamisierung der operativen Zone. Wobei die Veränderungen in Abhängigkeit vom Kontext der Aufgabe auch in entgegengesetzter Richtung ablaufen können. Bsp. 29. Leiten von Satellitengruppen auf genaue Orbits (Abschluss). In der Etappe der Reduktion kann man folgendes Modell eines technischen Widerspruchs aufstellen: Plus-Faktor Leiten von Satellitengruppe
Minus-Faktor
Genaue Positionierung auf Orbits
Plus-Faktor 05: Genauigkeit der Fertigung
Anstieg der Kompliziertheit des Systems
Minus-Faktor 07: Kompliziertheit der Konstruktion
Empfohlene Navigatoren: 05 Ausgliedern, 06 Verwendung mechanischer Schwingungen, 10 Kopieren. Eine der bekannten Lösungen auf der Basis des Navigators des Ausgliederns von Teilen bedeutet: „das einzige notwendige Teil ausgliedern (notwendige Eigenschaft)“:
Abb. 9.18. Ein Shuttle trägt Satelliten auf genaue Orbits
Eine Gruppe von Satelliten wird in den Weltraum mit einem Raumschiff vom Typ „Shuttle“ gebracht. Danach trägt ein Manipulationsroboter (Abb. 9.18) die Satelliten aus dem Lastbereich des Shuttles heraus und stellt sie in bestimmte Umlaufbahnen mit geforderten Parametern.
Bsp. 30. Schreibtafel (Abschluss). Die Reduktion der Ausgangswidersprüche erweist sich in dieser Situation schon als nicht gerade einfache Aufgabe. Betrachten wir einmal diesen Prozess in seiner Entwicklung. Zunächst können die Ausgangswidersprüche auf folgende Form reduziert werden:
9 Vom Bestehenden zum Entstehenden Plus-Faktoren
Zeichnung an der Tafel
Minus-Faktoren
Auftragen beliebiger Darstellungen. Einfachheit der Konstruktion
Plus-Faktoren: 02 Universalität 07 Kompliziertheit der Konstruktion
Geringe Produktivität. Keine Automatisierung. Wenig Benutzungsfreundlichkeit.
Minus-Faktoren: 01 Produktivität 03 Niveau der Automatisierung 10 Benutzungsfreundlichkeit
121
Hier übersteigt die Anzahl der negativen Faktoren, die der positiven Faktoren. Deshalb scheint es sinnvoll, zu inversen Modellen überzugehen, und den Faktor 02 Universalität hinzuzufügen:
Zeichnung nicht an der Tafel
Plus-Faktoren: 01 Produktivität 02 Universalität 03 Niveau der Automatisierung 10 Benutzungsfreundlichkeit Minus-Faktor: 07 Kompliziertheit der Konstruktion
Gruppe der Verfahren entsprechend der CICO-Methode: 04, 18, 19, 37 09, 19, 29, 37 02, 07, 18 04, 07, 14, 27
Die Rangfolge der Navigatoren führt zu folgender Reihenfolge: 04 (2), 07 (2), 18 (2), 19 (2), 37 (2), 02, 09, 14, 27, 29. Notieren wir nacheinander die Schlüsselempfehlungen aus den ersten vier Verfahren: - das mechanische System durch ein optisches, akustisches oder „olfaktorisches“ ersetzen; - die Charakteristika des Objekts oder der Umgebung müssen so geändert werden, dass sie in jedem Arbeitsschritt optimal sind; - ein Zwischenobjekt verwenden, das die Wirkung weiterleitet oder überträgt; - die mögliche Verbesserung beim Übergang von einer flächenmäßigen Bewegung zu einer räumlichen; Verwendung optischer Ströme, die auf die Nachbarfläche fallen. In Deutschland entstand folgende Lösung (Abb. 9.19). An die Tafel 1 mit einer normalen Größe 3 x 1,5 Meter, hält der Lektor den Stift 2 so, als würde er zeichnen oder schreiben wollen. In der Tafel befindet sich ein Koordinatennetz 3, welches die Position der Spitze des Stifts einliest. Die „X“ und „Y“-Koordinaten der Position der Stiftspitze gelangen über den Wandler 4 in den Computer 5.
122
A-Studio: algorithmische Navigation des Denkens
Abb. 9.19. Prinzip des Aufbaus einer elektronisch-optischen Tafel
Von dort werden sie zum Projektor 6 geleitet, der alles darstellt, was vorher an der Tafel gezeichnet wurde (7). Dann projiziert er das Ende einer neu aufgetragenen Linie, unmittelbar an die Stelle, wo sich der Stift befindet. Die „Tafel“ (weißes Licht) spielt hier die Rolle eines Bildschirms mit einem eingebauten System des Einlesens der Stiftposition. So wird die Universalität des Zeichnens an der Tafel erhalten, und es steigt das Niveau der Automatisierung durch die Möglichkeiten der Speicherung von Darstellungen in jedem Computer, der über das Internet mit dem Übertragungscomputer 5 verbunden ist. Es steigen Produktivität, Benutzungsfreundlichkeit und Niveau der Automatisierung, da jetzt an der Tafel alle vorher vorbereiteten komplizierten Zeichnungen gezeigt werden können. Bsp. 31 und 37. Kuppel des Reichstags (Abschluss). Sind Sie jetzt so weit, die Gedankengänge des Architekten Sir Norman Foster nachzuvollziehen? Wenn ja, dann wollen wir versuchen, das zu tun. Wenn nein, sollten Sie das Buch noch einmal von Anfang an durcharbeiten! Wir verbinden hier Lösungen auf der Basis des technischen und physikalischen Widerspruchs, besonders, weil wir nach diesem Beispiel zur Untersuchung von Transformationen auf der Basis physikalischer Widersprüche übergehen wollen: Ideales Resultat: Besucherströme können sich nicht begegnen! Technischer Widerspruch: Plus-Faktor 21 Form und Minus-Faktor 25 Zeitverluste. physikalischer Widerspruch: gegenläufige Besucherströme müssen sein, da die Besucher auf und von der Plattform kommen müssen, und gegenläufige Besucherströme dürfen nicht sein, damit die Besucher einander nicht in ihrer Fortbewegung stören. Führende Ressource: räumlich. Empfehlungen nach der A-Matrize: Navigator 02 Vorherige Wirkung, 15 Verwerfen und Regeneration von Teilen, 19 Übergang in eine andere Dimension und 22 Sphäroidalität. Empfehlungen aus dem Katalog der „Fundamentalen Transformationen und ANavigatoren“: äußerst perspektivreich sind folgende Navigatoren 05 Ausgliedern,
9 Vom Bestehenden zum Entstehenden
123
10 Kopieren, 19 Übergang in eine andere Dimension, 22 Sphäroidalität, 34 Matrjoschka. Gesamtheit der Empfehlungen und ihre Interpretation: - Navigator 05: das störende Teil (z.B. der Strom der herunterfahrenden Besucher) abtrennen, das notwendige Teil aussondern (analog); - Navigator 10: Kopien verwenden (noch eine Rampe installieren!); - Navigator 19: eine mehrstöckige Gestaltung durchführen (irgendwie eine Rampe über der andern platzieren!); - Navigator 22: Spiralen verwenden (werden bereits verwendet!); - Navigator 34: Objekte nacheinander, eines im anderen unterbringen, ein Objekt durch den Hohlraum eines anderen Objekts verlaufen lassen (das hieße, die Rampen müssen irgendwie ineinander gelegt werden!?). Eine einfache und großartige Lösung (Abb. 9.20): die zweite Rampe ist um 180º gedreht (z.B. von oben gesehen, oder anders gesagt, im Grundriss) und verläuft frei mit ihren Windungen zwischen den Windungen der ersten Rampe. Beide Rampen sind identisch, d.h. sie sind Kopien voneinander. Bsp. 32. Trennzaun (Abschluss). Formulieren wir das Maxi-FIM: die operative Zone hält den Zaun selbst! Siehe auch Beispiel 30! Versuchen wir, eine andere Variante des physikalischen Widerspruchs zu formulieren: der Zaun soll schwer sein, Abb. 9.20. Rampen zur Besucherdamit er sich schwer bewegen lässt, und er plattform des Reichstags in Berlin soll leicht sein (besserer Transport, Aufund Abbau). Wir wollen vor allem die Möglichkeit einer Lösung des Widerspruchs in der Zeit betrachten, da der Zaun in einem Zeitintervall schwer (breit), und in einem anderen Intervall leicht (schmal) sein soll. Und diese Intervalle überschneiden sich nicht! Es ist klar, dass natürlich auch an der Konstruktion bestimmte Veränderungen vorgenommen werden müssen. Hier müssen alle verfügbaren Ressourcen untersucht werden! Was z.B. verschiebt den Zaun? Der Druck und das Eigengewicht der Besucher, die sich auf den Zaun stützen. Und das ist ja eine durchaus reale Ressource, die Masse, die genau im Konfliktintervall auftaucht. Schaden muss in Nutzen umgewandelt werden! Eine sehr effektive Lösung (Abb. 9.21): seitlich von der Besuchermenge wird die Stütze des Zauns in Form einer Gitterplattform gestaltet, die breit genug ist, dass die Besucher, wenn sie sich auf den Zaun stützen auf jeden Fall auf dieser Plattform stehen müssen. So verhindert die operative Zone selbst (mit Hilfe des Gewichts Abb. 9.21. Stabiler Zaun der Besucher), dass der Zaun verrutscht!
124
A-Studio: algorithmische Navigation des Denkens
Bsp. 33. Reaktion des Kraftfahrers (Abschluss). Ich kenne einige Fahrschulen, in denen dieser Widerspruch auf recht natürliche Art und Weise gelöst wurde. In der Schule werden Feiern veranstaltet, auf denen, Sekt und auch hochprozentige Getränke ausgeschenkt werden. Danach erfüllen die angeheiterten Kraftfahrer zusammen mit den Testleitern in speziell ausgestatteten Autos auf Übungsplätzen ganz gewöhnliche Aufgaben. All das wird per Video aufgezeichnet und die Zeit für die Ausführung der Aufgaben gestoppt. Beim nächsten Treffen werden dann den Teilnehmern diese Aufzeichnungen gezeigt. Dann ist meist das Staunen groß! Eine Sache mit großem Effekt! Die zweite Lösung entspricht mehr der TRIZ! Die negative Wirkung muss an die Umgebung übertragen werden, es muss eine Ressource der äußeren Umgebung verwendet werden. Ein Computertrainingsgerät wird „betrunken“ gemacht! Der Widerspruch wurde in der Struktur und in der Zeit gelöst: das gesamte System funktioniert normal, ein Teil des Systems jedoch nicht normal, konkret: das Trainingsgerät führt seine Handlungen mit bestimmter Verzögerung aus. Bsp. 34. Pfeiler (Abschluss des Beispiels). Selbst wenn Sie die Kontrolllösung kennen, oder Sie eine eigene Idee haben, studieren Sie bitte dieses Beispiel äußerst aufmerksam. Es scheint nur, einfach zu sein. In Wirklichkeit gibt es hier sehr wichtige Feinheiten bei der Reduktion, die von der TRIZ entdeckt wurden. Konstruieren wir also das funktionale Strukturmodell des Konflikts in der operativen Zone (Abb. 9.22). Haben Sie bemerkt, dass es sich hierbei um eine vereinfachte Variante handelt? Wenn ja, dann ist das sehr gut! Wenn nein, dann lesen Sie die folgenden Ausführungen besonders aufmerksam.
A
B Abb. 9.22. Vereinfachtes Modell des Konflikts beim Einschlagen eines Pfeilers
Zunächst stellen wir fest, dass die folgende Analyse eigentlich schon in der Etappe der Diagnostik hätte vorgenommen werden müssen. Gehen wir aber davon aus, dass wir abgelenkt waren und dachten, dass in dieser Situation nur eine operative Zone und dementsprechend nur ein „offensichtliches“ Konfliktpaar vorhanden war. Der Hammer A und der Pfeiler B. In dem Moment, als wir das Ausgangsmodell so definiert hatten, beschränkte sich unsere gesamte Suche auf diese operative Zone! So, wie es in etwa bei Personen abläuft, die mit der TRIZ nicht vertraut sind!
Ein TRIZ-Spezialist führt noch in der Etappe der Diagnostik eine vollständigere Analyse durch. Machen wir aber dort weiter, wo wir stehen geblieben sind. Konstruieren wir ein kompletteres funktionales Strukturmodell in der operativen Zone (Abb. 9.23). Alle, die nicht die Details des TRIZ-Modellierens kennen, beschreiben dieses Modell in etwa so: der Hammer A wirkt auf den Pfeiler B ein und überträgt seine Energie, um ihn in den Boden C zu bewegen. Dabei wird jedoch der Pfeiler B beschädigt; der Pfeiler vollführt eine Einwirkung auf den Boden C, der seinerseits auch negativ auf den Pfeiler einwirkt. Und hier müssen nach der TRIZ die Zonen und auch die Actors genauer und detaillierter beschrieben werden, wenn auch in nicht traditioneller Form.
9 Vom Bestehenden zum Entstehenden
125
Erstens sehen wir hier deutlich zwei operative Zonen. Die erste ist offensichtlich und beinhaltet den Hammer A und der Pfeiler B. Mit dieser Zone haben wir uns, wie übrigens Hunderte oder Tausende „Pfeilerspezialisten“ beschäftigt, ungeachtet dessen, dass in diesem System andere Zonen und Ressourcen vorB handen sind. Die zweite operative Zone enthält den Pfeiler B und den Boden C. Diese Zone hatten wir völlig außer C Acht gelassen, weil wir dachten, dass sich der gesamte Systemkonflikt nur aus dem Konflikt zwischen A und B zusammensetzt. Dieser Fehler verhinderte eine Abb. 9.23. Vollständiges systematische Untersuchung des gesamten Systems, Modell des Konflikts beim Einschlagen eines Pfeilers und demzufolge auch die Möglichkeit, gerichtet nach alternativen Lösungen zu suchen. Kommen wir jetzt aber zu einem noch weniger feststellbaren und feinsinnigen Fehler, der bereits bei der Beschreibung des vollständigen Modells gemacht wurde. Im Unterschied zu unvorbereiteten Problemlösern hätten erfahrene TRIZSpezialisten gesagt, dass auf den Pfeiler nicht der Boden einwirkt, sondern das Loch im Boden! Sie hätten gesagt, dass der Pfeiler nicht einfach auf den „Boden einwirkt“, sondern für sich eben dieses Loch schafft! Wenn also dieses Loch schon früher die Form des Pfeilers hätte, bräuchte der Pfeiler nicht eingeschlagen zu werden! Wenden wir uns an dieser Stelle kurz vom eigentlichen Thema ab: scheint es Ihnen nicht auch so, dass bereits auf der Grundlage dieser recht einfachen Erörterungen eine alternative Idee auftaucht?! Natürlich kann man für den Pfeiler vorher ein Loch machen, und danach den Pfeiler mit weitaus weniger Kraft einschlagen. Und wenn das Loch groß genug ist, kann man den Pfeiler einfach in das Loch hineinstellen. Machen wir aber weiter. Im vorherigen Abschnitt haben sie gesehen, dass die Formulierung des funktionalen idealen Modells nicht nur bei der Vorbereitung des Generierens einer Idee eine Rolle spielt, sondern auch die entscheidende Idee selbst irgendwie vorhersagt. Das ideale Endresultat: der Pfeiler soll ganz und unbeschädigt seinen Platz im Boden einnehmen. Und erneut muss genau definiert werden, was es bedeutet „ganz und unbeschädigt“. So müsste z.B. die Form des Lochs im Boden so sein, wie die des Pfeilers, die er im Betrieb erhält, wo er hergestellt wird. Außerdem kann man auch nach einer genaueren Definition der operativen Zone suchen! Es ist völlig korrekt, die Wände des Lochs und die Oberfläche des Pfeilers an den Kontaktstellen mit dem Loch als operative Zone zu definieren. Überprüfen wir einmal die Richtigkeit dieses Modells mit Hilfe einiger Fragen und Antworten. Das Verfahren, wie sie formuliert werden, wird Ihnen völlig verständlich sein. Wie genau tritt der Boden mit dem Pfeiler in Wechselwirkung? – Nur über die Wände des Lochs! Wie aber tritt der Pfeiler mit den Wänden des Lochs in Wechselwirkung? – Nur mit seiner Oberfläche! A
126
A-Studio: algorithmische Navigation des Denkens
Verstärken wir das funktionale ideale Modell bis zum Äußersten: die operative Zone selbst gewährleistet den Erhalt eines ganzen Pfeilers! Der Reihe nach kann das nur heißen: die Wände des Lochs gewährleisten selbst ... den Erhalt eines ganzen Pfeilers!? Lässt sich dieses Bild konstruktiv interpretieren? Wenn ja, dann notieren Sie Ihre Idee, um Sie bald schon der Kontrolllösung gegenüberstellen zu können! Übrigens bei einem Nein, sollten Sie das unten aufgeführte genau lesen. Betrachten wir die operative Zeit, und wenden uns folgerichtig vom Endresultat ab. Irgendwie gelangt also der Pfeiler in den Boden (und das ist die Konfliktzeit). Vorher wird der Pfeiler auf die Baustelle gebracht. Der Pfeiler wird in einem Betrieb hergestellt. Dazu werden Sand und Zement mit Wasser gemischt und eine metallische Armatur hergestellt. Die Armatur wird in eine Form gelegt. Danach wird in die Form die vorbereitete Betonmischung gegossen. Nach dem Erkalten der Mischung in der Form wird aus ihr der fertige Pfeiler entnommen. Haben Sie eine Möglichkeit erkannt, das funktionale ideale Modell zu interpretieren? Überprüfen Sie Ihre Idee anhand der Kontrollantwort am Ende des Buchs. Bsp. 35. Reparatur einer Rohrleitung (Abschluss). Im Ergebnis der Reduktion haben wir es mit einem starken physikalischen Widerspruch zu tun: das Wasser muss angehalten werden und das Wasser darf nicht angehalten werden! An dieser Stelle sollte man mit der Konkretisierung aller TRIZ-Aspekte einer Problemsituation beginnen. Erstens: die operative Zone. Sie enthält das Loch im Rohr und den Teil des Rohrs mit dem Loch und dem Wasser. Ideales Resultat: das Wasser ist gestoppt, es gibt kein Wasser im Bereich des Lochs! Ressourcen: es gibt keine sichtbaren Ressourcen. Wenden wir uns an den Katalog der fundamentalen Transformationen und an die A-Kompaktstandards. Die allgemeine Interpretation des Systemübergangs 1-c (Position 5): im gesamten System bewegt sich das Wasser, aber in der operativen Zone – nicht (?). Interpretation der Position 7: Anwendung des Phasenübergangs 1 – den Phasenzustand eines Systemteils ersetzen! Kontrollantwort: ober- und unterhalb des Lochs ein lokales Gefrieren des Wassers realisieren! Eine solche Anlage wird z.B. von der Firma Rothenberger (Deutschland) hergestellt. Bsp. 46. Schreibtafel (endgültiger Abschluss!). Lassen Sie uns gemeinsam darüber nachdenken, welche Besonderheiten die Lösung hat, die wir in Beispiel 30 (Abschluss) gefunden hatten. Eine sehr interessante Lösung! Sie ist auch deshalb wichtig, weil sie zeigt, wie eines der beharrlichsten Stereotype beseitigt wurde, das uns daran hindert Innovationen auf diesem Gebiet, eben des Unterrichts, zu schaffen: die Vorstellung darüber, dass an der Tafel nur mit Kreide oder mit Faserschreibern geschrieben werden kann! Aber wollen wir uns noch eine Frage stellen: warum muss denn der Lektor überhaupt irgendetwas an die Tafel zeichnen, im Maßstab der Tafel?! Finden Sie nicht auch, dass das ein sehr beliebter Stereotyp von uns ist?! Versuchen wir eine Express-Diagnostik dieser Situation vorzunehmen. Bei einer Darstellung auf einer großen Tafel, brauchen wir auch ein großes Auditorium, in dem viele Studenten sitzen. Aber diese Tafel ist eigentlich gar nicht notwendig, um Vorlesungsmaterialien weiterzugeben, die es auch im Internet gibt! Es reicht aus, Zeichnungen, Text und Formeln zu vermitteln. Und das müsste auch nicht einmal der Lektor machen! Braucht man denn aber in einem großen traditionellen
9 Vom Bestehenden zum Entstehenden
127
Auditorium einen Lektor, der ständig an der Tafel steht und den Prozess des Zeichnens imitiert (das aber geschieht bei der Lösung in „Abschluss“ Beispiel 30), und dabei die Zeichnung mit verbalen Erklärungen begleitet?
Abb. 9.24. Prinzip eines Geräts für die virtuelle elektronisch-optische Tafel
Und so formulieren wir unsere neuen Forderungen: der Lektor muss an der Tafel stehen, sollte aber nicht dort stehen; die Darstellung soll an der Tafel sein, sie braucht aber nicht an die Tafel gezeichnet zu werden! Die Widersprüche sind deutlich mit der Ressource des Raums verbunden, und die Lösung wird am ehesten mit dem Prinzip der Transformationen im Raum verbunden sein! Ich gehe davon aus, dass Sie schon mal in das Schema in der Abb. 9.19 geschaut haben, und dort zu folgender Kontrolllösung gekommen sind (Abb. 9.24).
Der Lektor erstellt eine Zeichnung oder schreibt einen Text mit dem Stift 2, der sich auf einer Tischanlage 3 bewegt (Digitizer und Tablett), die das Netz eines genauen Koordinatensystems hat, welches die Position der Stiftspitze einliest. Der Stift hinterlässt auch eine sichtbare Spur, z.B. Tinte auf einem Blatt Papier, das auf der Anlage 3 befestigt ist. Jetzt kann die Darstellung auf den Bildschirm 1 (mit beliebiger Größe) projiziert werden. Selbstverständlich werden diese Daten im Computer 5 gespeichert und können so in das Internet übertragen werden. Auf diese Weise erhöht sich die Nutzerfreundlichkeit erneut. Bsp. 47. Schiff auf Unterwasserflügeln. Eine Express-Diagnostik zeigt folgendes. Das Schiff als technisches System TS hat eine nützliche Hauptfunktion MPF „befördern von Lasten auf dem Wasser“ und eine negative Hauptfunktion MNF „das Wasser während der Bewegung verdrängen“. Der Rumpf des Schiffes als Komponente des ɌS hat eine positive Funktion PF „die Last auf dem Wasser halten“, die ein Teil der MPF ist, und eine negative Funktion NF, die mit der MNF des Schiffs übereinstimmt. Die operative Zeit wird von der Zeit der Bewegung des Schiffs bestimmt. Es handelt sich dabei um eine Konfliktzeit, weil das Schiff während der Zeit seiner Bewegung gezwungen ist, Energie zu verbrauchen, um den Wasserwiderstand zu überwinden. Das Problem besteht darin, dass der Anstieg der Geschwindigkeit des Schiffes durch Erhöhen der Motorleistung schnell wieder nachlässt, weil der Wasserwiderstand um ein Vielfaches schneller steigt. Wie lässt sich die Geschwindigkeit bei relativ geringer Erhöhung der Motorleistung steigern? Kommen wir nun zur Reduktion und betrachten vor allem die operative Zone und die Widersprüche. Die operative Zone OZ umfasst alles, was die Bewegung des Schiffes bremst. Das sind vor allem das Wasser und das Hauptelement der OZ der unter Wasser liegende Teil des Schiffes, genauer gesagt der Querschnitt des Teils des Rumpfes, der sich unterhalb der Wasseroberfläche befindet. Hier ist der
128
A-Studio: algorithmische Navigation des Denkens
Rumpf des Schiffes der Induktor, der auf den Rezeptor Wasser „einwirkt“ um seine Bewegung zu gewährleisten. Hierbei hat der Rezeptor neben seiner positiven Wirkung (Schaffung einer Abstoßkraft nach dem Gesetz des Archimedes, um das Schiff auf dem Wasser zu halten) auch eine große negative Wirkung auf den Induktor – er bremst seine Bewegung. Administrativer Widerspruch AC: es muss die Geschwindigkeit des Schiffes so erhöht werden, dass dabei die Motorleistung nur in einem zulässigen Maße steigen muss (das Ziel steht deutlich fest, nur das Mittel muss bestimmt werden). Technischer Widerspruch TC: bei der Erhöhung der Motorleistung steigt die Geschwindigkeit des Schiffes, jedoch steigt der Wasserwiderstand schneller und macht bald eine weitere Steigerung der Motorleistung unmöglich. Physikalischer Widerspruch PC: der Rumpf des Schiffes muss breit sein, um die stabile Lage des Schiffs zu gewährleisten und muss schmal sein, um den Wasserwiderstand bei der Bewegung zu verringern. Stellen Sie diese Widersprüche in graphischer Form dar. Formulieren wir funktional ideale Modelle: 1. Macro-FIM: eine X-Ressource gewährleistet mit dem Anstieg der Geschwindigkeit, das Fehlen des Anstiegs der bremsenden Wirkung des Wassers, ohne dabei unzulässige negative Effekte hervorzurufen. 2. Micro-FIM: eine X-Ressource in Form von Stoff- oder Energieteilchen befindet sich in der operativen Zone und gewährleistet während der Bewegung das Fehlen des Widerstands von Teilchen des Wassers. 3. Maxi-FIM: die operative Zone gewährleistet selbst den Anstieg der Geschwindigkeit, dabei ist der Wasserwiderstand umso geringer, je höher die Geschwindigkeit ist. In der Etappe der Transformation betrachten wir den physikalischen Widerspruch ausführlicher und ersetzen spezielle Termini durch einfachere Wörter. Das Schiff hält sich auf der Wasseroberfläche, d.h. es schwimmt, weil sein Teil unter Wasser unter dem Schiff Wasser verdrängt, dessen Gewicht dem Gewicht des Schiffes insgesamt entspricht (das ist eben das Gesetz des Archimedes). Das heißt also, dass das Schiff positiv mit dem Wasser interagiert, wenn es sich nicht bewegt. Bei Bewegung verdrängt der Teil unter Wasser Wasserteilchen, um sich für eine leichtere Fortbewegung einen Leerraum zu schaffen. Stellen wir fest – einen Leerraum! Ohne Wasser! Dieser Raum könnte mit Luft gefüllt sein, was auch real so abläuft. Stellen wir fest, dass ein Eisbrecher Eis verdrängt und sich einen freien Raum im Wasser schafft. Ein schnell fahrendes Schiff, aber, verdrängt Wasser und schafft sich einen freien Raum ... in der Luft. Jetzt können wir das Modellieren nach den Koordinaten „Größe – Zeit – Kosten“ aus dem Abschnitt 18.2 Modelle „Phantogramm“ und „War-Wurde“ anwenden. Wir verkürzen hier die Beschreibung und führen nur ein Ergebnis des Modellierens an: ein extrem „schmaler Rumpf“ bedeutet einen „Nullrumpf“ oder einen fehlenden „Rumpf“! Mit anderen Worten, der sich unter Wasser befindende Teil des Rumpfs (genau auf ihn wirkt die Bremswirkung des Wassers ein) muss eine „Nullhöhe“ haben oder was dasselbe ist - darf sich nicht im Wasser befinden! Den physikalischen Widerspruch in einer so extrem verstärkten Form finden Sie in Abb. 9.25.b.
9 Vom Bestehenden zum Entstehenden Erster Faktor Komponente: Schiffsrumpf Zweiter Faktor
a)
b)
Komponente: Schiffsrumpf
129
Zustand: breit (für die Stabilität der Lage) Zustand: schmal (bei Bewegung)
Erster Faktor Zustand-Funktion: muss im Wasser sein, um Lasten auf dem Wasser zu halten
Zweiter Faktor
Funktion: soll nicht im Wasser sein, damit bei Bewegung kein Wasserwiderstand entsteht
Abb. 9.25. Ursprünglicher (a) und verallgemeinerter (b) physikalischer Widerspruch
Jetzt kann man die Frage stellen: wie kann erreicht werden, dass sich der Rumpf des Schiffes während der Bewegung nicht im Wasser befindet. Eine Art FlugzeugSchiff konstruieren? Warum eigentlich nicht?! Der Rumpf muss aus dem Wasser geholt und über das Wasser gehoben werden! Überlegen Sie mal, was für ein Stein besser auf dem Wasser springt, wenn man ihn kräftig fast entlang der Oberfläche des Wassers wirft? Ein flacher natürlich! Und so lange der Stein die notwendige Geschwindigkeit hat, stößt er sich vom Wasser ab und geht nicht unter! Das bedeutet, dass hier etwas anderes als das Gesetz des Archimedes wirkt. Einerseits wirkt die Abstoßkraft, die beim Aufschlagen des Steins auf das Wasser entsteht, andererseits aber hat ein flacher Stein zusätzlich noch eine aerodynamische Auftriebskraft, wie der Flügel eines Vogels oder Flugzeugs. Warum sollte man also nicht dem Rumpf des Schiffs „Flügel“ hinzufügen?! Eine andere Frage ist, wo sie installiert werden können! Wenn sie am Schiff über Wasser installiert werden, wird die Auftriebskraft nur wegen der Luftstütze entstehen, dann aber müsste das Schiff auf die Geschwindigkeit eines Flugzeugs gebracht werden. Ein Schiff ist aber schwerer als ein Flugzeug und es benötigt eine weitaus höhere Auftriebskraft. Was wäre aber, wenn die „Flügel“ unter Wasser angebracht würden?! Dann entwickelt die Stützkraft auf dem Wasser eine weitaus größere Auftriebskraft, eine hydrodynamische Kraft und drückt den Rumpf des Schiffes ein wenig nach oben! Je höher die Geschwindigkeit ist, desto höher steigt das Schiff aus dem Wasser auf und desto kleiner wird der Teil des Rumpfs, der sich unter Wasser befindet. Der Wasserwiderstand wird so geringer und demzufolge wird es leichter das Schiff mehr und mehr zu beschleunigen. Es wird sich nach und nach immer weiter nach oben über das Wasser bewegen bis sich der ganze Rumpf über dem Wasser befindet. Im Wasser sind dann nur noch die „Flügel“ und der Antrieb für die Schiffsschraube! Und genau diese Idee hatte der russische Erfinder Rostislaw Alexejew, der zu Beginn der 1950er Jahre die Richtung der Hochgeschwindigkeitsschiffe auf Unterwasserflügeln begründete (Abb. 9.26).
130
A-Studio: algorithmische Navigation des Denkens
Für die Etappe der Verifikation wollen wir hier nur eine wichtige Erklärung abgeben. Da die Unterwasserflügel ein Element des Rumpfs sind, kann man berechtigterweise sagen, dass wir eine ideale funktionale Lösung gefunden haben. Die OZ gewährleistet selbst den Anstieg der Geschwindigkeit des Schiffs bei beliebiger Breite. Kommen wir jetzt zu Lehr-zwecken und der Vollständigkeit Abb. 9.26. Hochgeschwindigkeitsschiff halber zu technischen Widersprüchen und mit Unterwasserflügeln zur Möglichkeit der Lösung der Aufgabe mit Hilfe des A-Navigators. Entsprechend dem technischen Widerspruch kann man aus der A-Matrize den Plus-Faktor „die Geschwindigkeit wird besser“ (Zeile 22) und der Minus-Faktor „die Leistung (Kapazität) wird schlechter“ (Spalte 36) ablesen. Die A-Matrize empfiehlt folgende A-Navigatoren: 01 Veränderung des Aggregatzustands eines Objekts, 05 Ausgliedern, 08 Periodische Wirkung, 30 Verwendung starker Oxydationsmittel. Für eine konstruktive Interpretation eignet sich am besten den A-Navigator 05: Das „störende“ Teil (störende Eigenschaften) aus dem Objekt ausgliedern oder, im Gegenteil, das einzige notwendige Teil (notwendige Eigenschaft) ausgliedern. Der „störende“ Rumpf des Schiffs wurde aus dem Wasser ausgegliedert durch aus dem Schiffsrumpf ausgegliederte „notwendige“ Elemente – die Unterwasserflügel. Bsp. 48. Sonniges Haus. Gewöhnlich werden Landhäuser so gebaut, dass soviel Sonne wie möglich in das große Zimmer, das Wohnzimmer fallen kann. So kann es aber vorkommen, dass die anderen Seiten des Hauses gar keine Sonne haben. Versuchen Sie eine Lösung zu erfinden, dass in jedes Zimmer Sonne gelangen kann. Eine vorhergehende Diagnostik zeigt folgendes. Das Haus als technisches System TS hat die nützliche Hauptfunktion MPF „den inneren Raum vor äußeren Einwirkungen schützen“ und die negative Hauptfunktion MNF (in diesem Fall) „Fehlen des Sonnenlichts in einigen Räumen“. Hier wird vorausgesetzt, dass das Sonnenlicht durch die Fenster in das Haus gelangt. Wenn das Haus aus nur einem Zimmer besteht, so hat dieses Zimmer in jedem Fall Sonne, selbst wenn die anderen Fenster keine Sonne haben. Davon ausgehend können bereits in der Etappe der „Diagnostik“ einige offensichtliche Ideen entstehen (Abb. 9.27): man kann ein Haus bauen, in dem sich alle Fenster entlang der Sonnenseite erstrecken (a), die Zimmer der zweiten Etage haben Fenster über dem Dach der ersten Etage (b), das Haus hat eine Ringform aus Einzimmer-Sektionen mit einem Innenhof (c). Auch kompliziertere Lösungen sind offensichtlich: auf der der Sonne abgewandten Seite werden Reflektoren installiert (d), eingebaute Spiegel-Lichtleiter (e).
9 Vom Bestehenden zum Entstehenden
131
b) c)
a)
d)
e)
Abb. 9.27. Konstruktionsprinzipien für das Sonnenhaus
Nehmen wir eines dieser Projekte als Prototyp für die Suche nach neuen Ideen. Wählen wir die Lösung „a“. Der Mangel hierbei ist schwierige Planung eines einreihigen Hauses. Reduktion. Bestimmen wir zunächst die Actors und die OZ dieses Systems (legen Sie das Buch zur Seite und versuchen Sie selbständig diese Komponenten zu bestimmen). Verweisen wir am Anfang auf die notwendige Hilfsfunktion des Hauses „die Zimmer beleuchten (mit Sonnenlicht)“. Dann wird deutlicher, dass die Zimmer hierbei die Rezeptoren sind, und das Haus ist das Induktor-System. Das Sonnenlicht kann als Systemumgebung oder Umgebung betrachtet werden. Dann kann man die OZ als Gesamtheit der Zimmer betrachten. In der TRIZ heißt es, wenn gleichartige Objekte vorhanden sind, kann man eine Lösung für ein Objekt entwickeln, und sie dann auf alle Objekte übertragen (natürlich nur, wenn alle Objekte zusammen genommen keine neue Systemeigenschaft haben). Deshalb definieren wir die OZ als Zimmer auf der der Sonne abgewandten Seite. Hierbei handelt es sich um einen starken physikalischen Widerspruch: das Haus (durch das Fenster) beleuchtet gut das Zimmer (auf der Sonnenseite) und beleuchtet das Zimmer schlecht (auf der der Sonne abgewandten Seite)! Wir stellen fest, dass in dieser OZ die operative Zeit OT (Konfliktzeit) sofort nach der Festlegung der Lage des Hauses auf dem Baugrundstück beginnt. Sehen wir uns die OT mal genauer an. „Vor“ der endgültigen Festlegung der Lage des geplanten Hauses auf dem Bebauungsplan für das Grundstück, kann das Haus, besser gesagt seine Projektion, so gedreht werden, dass die optimale Ausrichtung gewählt werden kann. So, dass die größtmögliche Sonneneinstrahlung in die Zimmer gewährleistet werden kann. „Nach“ der endgültigen Festlegung des Hauses entsteht der Mangel, den wir in den Mittelpunkt unserer Betrachtungen gestellt haben.
132
A-Studio: algorithmische Navigation des Denkens
Achtung! Noch einmal: vor der Festlegung der Lage des Hauses ist das Problem nicht vorhanden, aber nach der Festlegung ist es existent! Das aber ist eine Antwort in allgemeiner Form! Die Lage des Hauses sollte nicht festgelegt sein! Mit anderen Worten, das Haus muss dynamisiert werden, drehbar gestaltet werden, in der Art wie die Hütte auf dem Hühnerbein im Zauberwald! In der Etappe der Transformation bleiben noch immer nicht wenige schwierige Probleme. Das größte und wichtigste Problem ist die Entwicklung eines Drehmechanismus für das Haus. Das könnten ein großes Kugellager oder Räder sein? Oder vielleicht sollte das Haus schwimmen, dann wäre es ziemlich leicht, es zu „drehen“?! Sollte es sich wie ein Kreisel drehen können, in jede beliebige Richtung oder wäre eine Beweglichkeit in einem kleineren Sektor ausreichend, z.B., in einem Bereich von 60q - 90q? Wir werden hier diese Ideen nicht weiterentwickeln, da es dafür bereits eine Reihe von Patenten gibt. Unser Ziel bestand darin, zu zeigen, dass eine Lösung in verschiedenen Etappen des Meta-ARIZ entstehen kann. Und genau deshalb ist es so wichtig, sukzessive und aufmerksam alle Etappen nacheinander zu durchlaufen! Verifikation. Es entsteht eine Vielzahl neuer Probleme. Wie im Speziellen die Bauweise des Fundaments, die Energie- und Wasserversorgungssysteme, Abwasserentsorgung, eine spezielle Fernsehantenne und auch z.B. die Anbindung des Hauses an die Garage. Aber das überlasse ich gerne Ihrer Phantasie, darüber weiter nachzudenken. Das Thema haben Sie! Und vielleicht fallen Ihnen ja noch völlig unerwartete Ideen ein! Bsp. 49. Wand. Eine Firma auf der Hannover Messe hatte um ihren Stand herum eine äußerst interessante Wand gebaut. Von dieser Wand hätte man das sagen können, was man auch von einer bekannten Märchenfigur sagt, sie trug Kleidung und gleichzeitig auch keine! So auch diese Wand – sie war da, war aber auch nicht da. Auf diese Wand wurden ziemlich genau Werbe- und Informationsfilme projiziert, aber um zum Stand zu gelangen, brauchte man einen Durchgang, wo diese „Wand“ nicht war. Lassen Sie sich Zeit beim Erraten der Idee! Verwenden Sie den Meta-ARIZ. Und wenn Sie meinen Vorschlag bereits erraten haben, dann machen Sie ein Re-Inventing und durchlaufen dabei ausführlich alle Etappen des Meta-ARIZ. Das ist wirklich ein Problem! Die Wand ist da, die Wand ist nicht da! Das Kleid ist da, das Kleid ist nicht da! Es ist schon klar, dass ein Optimist dieses Problem im Vergleich zu einem Pessimisten diametral entgegengesetzt betrachtet! Wie bei der Flasche, die zu 50% gefüllt ist. Der Optimist sagt, wie wir wissen, dass die Flasche halb voll ist und der Pessimist betrachtet sie als halb leer, oder noch schlimmer als fast leer! Kommen wir aber nun der Sache näher: die Märchenheldin trug ein Kleid aus einem Fischernetz, am Stand aber war eine andere Lösung gefunden worden! Eine Glaswand? Nein, das wäre ja immer noch eine recht feste und äußerst traditionelle Konstruktion, wie eine Glasvitrine in einem Geschäft. Wir wollen nun nicht weiter herumraten, sondern versuchen eine Wand zu konstruieren, die nicht vorhanden ist! Diagnostik. Formulieren wir die nützliche Hauptfunktion der Wand für den Stand: den inneren Raum vom äußeren trennen. Traditionelle Hilfsfunktionen:
9 Vom Bestehenden zum Entstehenden
133
eine tragende Wand (z.B. für Decke oder Dach), eine optisch durchsichtige Wand (aus Glas) oder eine halbdurchsichtige aus z.B. lebenden oder künstlichen Pflanzen usw. Das sind so die üblichen Ideen aus dem Brainstorming. Auf die Idee, von der Sie jetzt erfahren werden, kann man durchaus auch beim Brainstorming kommen. Wir aber wollen versuchen sie durch ein Re-Inventing zu finden. Geben wir als Hilfsfunktion eine wechselnde Wand vor, die mal da ist und mal nicht da ist! Man sollte durch sie hindurch gehen können, wie z.B. durch eine spärliche Hecke aus lebenden Pflanzen. Das aber wäre mit Unannehmlichkeiten verbunden, besonders, wenn Sie auf der Industriemesse sind und einen Anzug tragen müssen. Reduktion. Konstruieren wir den physikalischen Widerspruch und verwenden dabei „unvereinbare“ ideale funktionale Eigenschaften: die Wand soll da sein, damit die Besucher nur durch einen speziellen Eingang zum Stand gelangen können, und die Wand soll nicht da sein, damit alles einzusehen ist, was auf dem Stand passiert, damit Werbeclips projiziert werden können und damit sie schnell auftauchen und auch schnell wieder verschwinden kann. Transformation. Im Abschnitt 10. Modelle für die Lösung physikalischer Widersprüche befinden sich 4 fundamentale Navigatoren: Aufteilen der unvereinbaren Eigenschaften im Raum, in der Zeit, in der Struktur und im Stoff. In unserer Aufgabe sind eindeutig alle 4 Aspekte vorhanden – räumlich (die Wand ist da – die Wand ist nicht da), zeitlich (die Wand erscheint z.B. nur während der Arbeitszeit), strukturell (die Wand hat eine wechselbare Struktur, um nicht den beiden ersten Aspekten zu widersprechen) und stofflich (die Wand besteht aus einem bestimmten Material, das nicht teuer und kompliziert ist). Im Abschnitt 8.2. Ressourcen finden Sie folgende Empfehlung: in erster Linie leicht zugängliche und nicht teure Ressourcen verwenden. Das ist besonders bei der Auswahl des Materials wichtig, das in ausreichendem Maße vorhanden und nicht zu kostspielig sein sollte. Auf Ausstellungen, wie auch an vielen andern Orten ist Luft und Wasser leicht zu bekommen. Luft: vielleicht, eine aufblasbare Wand? Sie wäre nicht völlig durchsichtig, und die Konstruktion scheint nicht gerade einfach zu sein! Wasser? Es bleibt nur Wasser übrig. Warum auch nicht?! Es lassen sich mindestens zwei Ideen aufgreifen: Springbrunnen und Wasserfälle entsprechend der Kontur des Stands! Auf dem Stand wurde ästhetisch gesehen die Idee des „Wasserfalls“ hervorragend umgesetzt: aus 4 Metern Höhe flossen Tausende dünne Wasserstrahlen entlang der Kontur des Stands mit Ausnahme der Durchgänge. Sie liefen in eine schmale Rinne am Boden, ohne zu spritzen und fast völlig geräuschlos. Die Werbeclips auf dieser sich ständig bewegenden Wand waren nicht allzu scharf, wirkten jedoch wegen des Kontrastes der Statik der Bilder zur Dynamik der „Projektionswand“ sehr beeindruckend. Verifikation. Es könnte die Frage nach den Kosten dieser „Wand“ und den Besonderheiten der technischen Umsetzung entstehen. Auch hier musste man sicher erfinderisch sein. Und noch etwas: gute Ideen sind es wert, dass man dafür bezahlt! Außerdem helfen gute Ideen, oft sehr viel Geld zu sparen. Und gerade davon handelt das folgende Beispiel. Bsp. 50. Kühlturm. Der Wärmewirkungsgrad moderner Dampf-Kühltürme beträgt 25-40%. Eine Steigerung der Effektivität des Kühlturms erhöht den Wirkungsgrad des gesamten Kraftwerks und verringert die schädlichen Auswirkungen
134
A-Studio: algorithmische Navigation des Denkens
der Emissionen auf die Umwelt. In den bekannten Türmen war die Effektivität deshalb gering, weil sich im Inneren des Turms stockende Verwirbelungszonen bilden. Sie haben eine Größe von bis zu 30% des Durchmessers des Turms und bilden so ein Hindernis für die Bewegung der sich abkühlenden Luft. Diese Luft dringt von unten über einen kompakten Luftaufnahme-Streifen entlang des gesamten Umfangs der Basis des Turms in den Turm ein. Wobei starker Wind, der anscheinend die Arbeit des Turms verbessern würde, wenn er von unten mit großer Kraft eindringt, im Gegenteil noch größere Staus im Turm erzeugt! Wie kann die Funktion des Kühlturms verbessert werden? Im Laboratorium des Instituts für Wärme-Masse-Austausch der Akademie der Wissenschaften in Minsk wurden unterschiedliche Aspekte der Effektivität, Sicherheit, und Umweltverträglichkeit von Atom- und Wärmekraftwerken untersucht. Wir wollen nun ausführlich das Beispiel betrachten, dessen noch relativ neue Lösung (1995) zu einer deutlichen Steigerung der Effektivität von Wärmekraftwerken führte. Diese Steigerung wurde durch die Veränderung der Arbeitsweise der Kühltürme erreicht, durch Einführung eines Systems, das der vollständigen Abkühlung des in den Turbinen verarbeiteten Wassers dient. Diagnostik. In den traditionellen Konstruktionen entstehen innerhalb des Turms Verwirbelungszonen (Abb. 9.28), welche die Bewegung des Kühlwassers behindern, das von unten über einen kompakten Luftaufnahme-Streifen entlang des gesamten Umfangs der Basis des Turms gelangt. Wobei starker Wind noch größere Staus im Turm erzeugt! Reduktion. Das FIM wurde in folgender Weise formuliert: die Kühlluft im Turm schafft „selbst“ einen stabilen, optimalen Strom auf dem gesamten Querschnitt des Turms – ohne „Staus“! Beachten Sie bitte erneut, dass der Schwerpunkt für das FIM auf dem Instrument, dem Arbeitsorgan des Kühlturms liegt – auf dem Luftstrom innerhalb des Turms! Die TRIZ fordert, das Arbeitsorgan genau zu definieren: nicht der Kühlturm kühlt das Wasser und vollführt die MPF, sondern die sich im Turm bewegende Induktor-Luft!
Abb. 9.28. Gewöhnlicher Kühlturm
Transformation. Diesmal nehmen wir uns den A-Katalog mal direkt vor und sehen ihn durch, was auch nicht allzu schwer ist. Mit den gestellten Zielen können folgende Navigatoren assoziiert werden: 01, 04, 05, 07,12, 14, 19, 21, 22, 24, 29, 34, 39, 40! Das scheint ziemlich viel zu sein? Es kommt aber auch vor, dass es noch mehr sind! Im Weiteren interpretieren und rangieren wir die Navigatoren entsprechend ihrer „Nähe“ zum FIM ein. Dabei braucht man natürlich bestimmte Erfahrungen. Im Ergebnis kam es zu folgendem Bild: 1. Die Analyse der einrangierten Navigatoren haben wir mit dem Navigator 21 begonnen: Schaden in Nutzen umwandeln: da die Umgebung (starker Wind; warme Luft, die das Wasser schlecht kühlt) negativ auf die Arbeit des Turms einwirkt, könnte sich dieser Nachteil doch „von selbst“ beseitigen! Es wäre also
9 Vom Bestehenden zum Entstehenden
135
günstig irgendwelche „kostenlosen, geschenkten“ Ressourcen der Umwelt zu nutzen, die „selbst“ einen Strom von Kühlluft erzeugen; 2. Als zweiten Navigator wurde die 29 ausgewählt – Selbstbedienung: der Luftstrom soll selbst die entstehenden „Staus“ beseitigen, oder noch besser – ihr Entstehen verhindern! (Leider ist es im Moment noch nicht klar, wie das gemacht werden kann, jedoch dürfen wir kein Stück vom FIM abweichen!); 3. Der nächste „passende“ Navigator ist die 04 Ersatz der mechanischen Materie: von unbeweglichen zu beweglichen Feldern übergehen, von fixierten zu zeitlich veränderlichen, von unstrukturierten zu Feldern mit einer bestimmten Struktur – „das Feld“ der Luft muss „stark“ gemacht werden, so, dass es die „Staus“ auflösen kann; 4. Navigator 19 Übergang in eine andere Dimension: von einer linearen zu einer Bewegung entlang einer Fläche oder zu einer dreidimensionalen übergehen. Da der Luftstrom die Staus bei einer linearen Bewegung von unten nach oben nicht verhindern kann, könnte man ihn doch zu einer Spirale verdrehen, wie im Ventilator oder im „Tornado“!? Das ist sie – die Schlüsselidee!!! In der Natur ist ein normaler Wirbel äußerst beständig, weil er eben „verdreht“ ist! Es muss ein „verdrehter“ Strom geschaffen werden, ein Tornado! – innerhalb des Turms! Wir stoßen auf ein Minus dieser Idee: was müsste das für ein riesiger Ventilator sein mit einem Durchmesser von zig Metern? Wir brauchen eine andere technische Lösung. 5. Navigator 07 Dynamisierung: ein Objekt in Teile zerlegen, die untereinander beweglich sind – hier muss nach einer Lösung gesucht werden, welche die Veränderung der Konstruktion des Turms betrifft (???), der Strom muss irgendwie zu einem stabilen Wirbel gemacht werden… Aus Platzgründen lassen wir eine Analyse der anderen Navigatoren hier weg. Um so mehr wäre bereits in diesem Stadium der Analyse für einen Spezialisten für Wärme-Masse-Austausch, auch im gasförmigen Milieu, eine konstruktionstechnische Lösung nur eine nicht allzu komplizierte Angelegenheit professioneller Technik: im Luftsammelteil im unteren Bereich des Turms werden spezielle „Luftsammelfenster“ eingebaut, die für das Öffnen eine vertikale Rotationsachse haben und sich in einem bestimmten optimalen Winkel Abb. 9.29. Neuer Kühlturm „schließen“ lassen (Abb. 9.29). Verifikation. Eine gute Lösung hat immer einen Super-Effekt: das Ansaugen der Außenluft in den Turm aus einer weitaus größeren Entfernung und größerer Höhe von der Basis des Turms aus gesehen, wurde stärker. Dadurch verschwinden sogar kleine Stauzonen bereits beim Eintreten der Luft in den Turm! Dank dieser Konstruktion entsteht innerhalb des Turms sogar bei windstillem Wetter ein stabiler Wirbel, und es kommt zu keinen „Staus“! Bei starkem Wind hingegen, steigt nur noch die Effektivität der Arbeit des Turms!
136
A-Studio: algorithmische Navigation des Denkens
Bei nur geringen Investitionen in die Modernisierung sogar bereits arbeitender Türme beträgt der Gewinn an Wärmeeffektivität durchschnittlich 3-7 % im Jahr, was eine wesentliche Verbesserung darstellt! Vergleichen wir kurz die Lösungsverfahren dieser fünf Beispiele: - im Beispiel 46 war nach der Vereinigung inverser technischer Widersprüche die direkte Antwort fast wortwörtlich zu erkennen; - im Beispiel 47 war es nach der Konstruktion des verallgemeinerten physikalischen Widerspruchs nicht gerade einfach auf die Idee der Unterwasserflügel als Analogie zu Flugzeugflügeln zu kommen, wobei nicht aerodynamische Kräfte, sondern Auftriebskräfte genutzt werden. Dazu benötigt man nicht nur sehr gute Kenntnisse physikalisch-technischer Effekte in der Aerodynamik und Hydrodynamik, sondern auch eine ausgeprägte Phantasie, ein von Trägheit freies Denken. Normalerweise assoziiert das Denken ein reales Schiff nicht ohne weiteres mit einem Flugzeug (es ist interessant, dass in Märchen fliegende Schiffe vorkommen! – die Idee gründete jedoch auch auf der psychologischen Trägheit des Denkens, da diese Märchen zu Zeiten entstanden, als es noch keine Flugzeuge, jedoch Schiffe gab!). - fast von allein taucht die Antwort im Beispiel 48 bei der Analyse der operativen Zeit in der Etappe der Reduktion auf, zwar nur bei einer sehr genauen und aufmerksamen Analyse, so wie es die TRIZ ja auch empfiehlt. Um jedoch letztendlich eine Idee zu finden, muss man einen sehr dominanten Stereotyp überwinden. Die Vorstellung von einem Haus als unbewegliches Objekt, das für immer auf ein unbewegliches Fundament gebaut wurde. Hier benötigt man nicht weniger Phantasie als im Beispiel 47; - beim Re-Inventing im Beispiel 49 erraten Viele die Lösungsidee schon vor einer ausführlichen Untersuchung des Problems Schritt für Schritt. Das ist aber nur deshalb so, weil in der Aufgabenstellung und in der Beschreibung der geforderten Eigenschaften dieser Wand sehr viele metaphorische und orientierende Informationen enthalten sind. Trotzdem ist eine Lösung unter Anwendung leicht zugänglicher Ressourcen dadurch nicht weniger nützlich. Jetzt aber betrachten Sie dieses Problem ohne Orientierungsinformationen und versuchen Sie eine neue „Wand“ zu erfinden, das könnte eine einträgliche Sache werden! - der Prozess der Problemlösung im Beispiel 50 erfordert Wissen und ausgeprägte Erfindungskraft, die auch die Autoren dieser Erfindung hatten. Das eigentliche Geheimnis dieser Lösung bestand darin, dass die Autoren lange Jahre spezielle Forschungen zu atmosphärischen Erscheinungen wie Tornados betrieben. Als sich dann Spezialisten aus der Kraftwerksindustrie an sie wandten, um „atmosphärische Erscheinungen“ in Kraftwerkskühltürmen zu untersuchen, wurden spezielle Kenntnisse der Forscher direkt angewendet – sie schufen einen Tornado im Kühlturm! Und das noch kurz zum Beispiel 50. Das ist gleichzeitig eine einfache und nicht so einfache Lösung! Sie scheint deshalb einfach zu sein, weil sie bereits vorliegt! Genau so scheint jede noch so schwierige Aufgabe leicht, wenn sie gelöst ist! Und wenn man Ihnen bei einer Aufgabe vorher schon die Lösung sagt, kommt noch hinzu, dass sie dann auch noch uninteressant wird. Die reale Geschichte der
9 Vom Bestehenden zum Entstehenden
137
Entstehung einer nicht einfachen Erfindung habe ich Ihnen nicht deshalb erzählt, damit Sie stöhnen und den Schluss ziehen sollen, dass nur hochspezialisierte Fachleute fähig sind, Erfindungen zu machen. Erfinden Sie selbst! Aber mit der TRIZ! Und Sie erreichen nicht weniger! Der Komplex aus 4 Navigatoren führte Sie zur Lösungsidee, war das nicht so?! Sehen Sie sich noch einmal das Re-Inventing an, und Sie werden das auf jeden Fall feststellen. Es ist klar, dass Menschen, die Probleme lösen, nicht die gleichen Fähigkeiten, Motivation und Ausbildungsstand haben. Und deshalb sind auch Resultate und Effektivität der Synthese von Ideen unterschiedlich. Dennoch zeigte die langjährige Erfahrung bei Vermittlung und Anwendung der TRIZ-Instrumente deutlich, dass sie zweifelsohne für jeden von Nutzen sein können, der die TRIZ richtig verstanden und erlernt hat. Im Unterschied zu allen anderen Navigatoren, bietet die TRIZ wirklich die Möglichkeit zu lernen, erfinderisch zu denken und zu erfinden. Die TRIZ lehrt, konstruktiv die Erfahrungen anderer Erfinder anzuwenden, die in den TRIZ-Instrumentarien akkumuliert sind. Alles andere liegt nur an Ihrer Motivation, Ihren Fähigkeiten und Ihrem Wissen! Nützliche Empfehlungen, die Ihre persönlichen Möglichkeiten bei der Lösung von Problemen verbessern, finden Sie im Abschnitt 19 Integration der TRIZ in die professionelle Tätigkeit. Eine Sache sollte aber auf keinen Fall außer Acht gelassen werden, die immer bei der Entwicklung großartiger Ideen vorhanden ist. Das ist etwas, was nicht leicht zu erfassen und schwer in Worte zu kleiden ist, was meist mit dem Zufall zu tun hat, mit dem Zusammentreffen von bestimmten Umständen, mit Glück. Und von diesem Glück, wünsche ich Ihnen recht viel! Genau das macht ja das Spiel mit dem Unbekannten interessant, etwas zu entdecken, wovon noch niemand außer Ihnen auf der Welt etwas weiß! Vor Ihnen, vor Ihrer Erfindung gab es das auf der Welt noch nicht! Sie haben es zur Welt gebracht! 9.4 Klassifikation der A-Modelle der Transformationen Bei der Entwicklung der TRIZ entstanden erstmals spezialisierte Transformationen für die Lösung technischer Widersprüche, die A-Navigatoren. Am Anfang war das eine kleine Liste mit 10-12 Empfehlungen für den Algorithmus des Erfindens ARIZ-1961, die Ähnlichkeit mit einer Aufstellung von Kontrollfragen aus dem Brainstorming hatten. Im ARIZ-1971 wurde diese Liste zu einem Katalog bestehend aus 40 Navigatoren. Für die Auswahl der Navigatoren wurde eine Spezielle A-Matrize entwickelt, deren Zugänge 39 Faktoren darstellen, die im Modell des Widerspruchs entweder positive oder negative Werte haben können. Ende der 1980er Jahre haben wir den A-Katalog prinzipiell neu strukturiert, (alle Navigatoren wurden nach der Häufigkeit ihrer Anwendung in die A-Matrize eingeordnet) und dasselbe gilt für die A-Matrize selbst (die Zugänge wurden nach System- und physikalischen Eigenschaften strukturiert). Außerdem wurde eine spezielle Methode der Kombination von Navigatoren formuliert – die CICOMethode (s. Abschn. 11.4). In der Mitte der 1970er Jahre wurden in der TRIZ die ersten Regeln für die Lösung physikalischer Widersprüche und die ersten 18 Modelle formuliert, in denen Actors als physikalische und „technische“ Felder und Stoffe (physikalisch-
138
A-Studio: algorithmische Navigation des Denkens
technische Modelle) auftreten. Diese entwickelten sich für die ARIZ-1977 zu 77 komplexen Transformationen, die später als Standards bezeichnet wurden oder in unserer Redaktion A-Standards genannt werden. Gegen Ende der 1980er Jahre wurde dann in der TRIZ ein Algorithmus der Auswahl der AStandards ausgearbeitet. Vollständig in deutscher Sprache wurden die AStandards und der Algorithmus der Auswahl der A-Standards in [10] veröffentlicht. Zu Beginn der 1980er Jahre hat man in der TRIZ eine vollständige Tabelle fundamentaler Transformationen für die Lösung spezieller physikalischer Widersprüche erarbeitet (veröffentlicht im ARIZ-1985). Als fundamental bezeichnen wir diese Transformationen, weil mindestens eine von ihnen in jeder Lösung vorhanden ist. Im Verlaufe vieler Jahre wurden in der klassischen TRIZ Kataloge von Basistransformationen zusammengestellt, die besser unter der Bezeichnung technische Effekte bekannt sind. Diese Modelle selbst sind eigentlich nicht für die unmittelbare Lösung von Widersprüchen vorgesehen, stellen jedoch eine Liste verschiedener physikalischer, geometrischer, chemischer und anderer Erscheinungen dar, deren Anwendung zu interessanten und wichtigen Erfindungen führte. Und genau dieser Charakter der Modelle, die auf physikalisch-technischen Effekten basieren, stellt die Begründung dafür dar, dass sie als grundlegende Effekte betrachtet werden, die Prinzipien für eine technische Umsetzung liefern. Die Anwendung der Transformationsmodelle bedarf einer nicht geringen Erfahrung und bestimmter Fertigkeiten. Die notwendigen Regeln und Beispiele finden Sie in den kommenden Abschnitten. Die Auswahl der Modellklasse für Transformationen (Abb. 9.30) hängt von der Art des Modells des Widerspruchs oder der ausgewählten Ressource ab, insgesamt jedoch stellt das keine große Schwierigkeit dar. Die allgemeine Regel zu den Transformationsmodellen, die man kennen und sich einprägen sollte, besteht darin, dass sich jedes dieser Modelle an sich völlig neutral in Bezug auf das zu lösende Problem verhält. Das von Ihnen gewählte Transformationsmodell kann Ihnen nur dann weiterhelfen, wenn gleichzeitig mehrere Bedingungen erfüllt sind: 1. Sie verstehen das Wesen der Veränderungen, die das Transformationsmodell vorsieht; 2. Sie interpretieren dieses Modell (Sie finden Parallelen, Analogien) entsprechend Ihrem Problem; 3. und am wichtigsten ist, Sie vollziehen Veränderungen und beseitigen das Problem auf der Basis der Anwendung der empfohlenen Transformation.
Und noch eine sehr wichtige Regel besteht darin, dass das Problem nur dann gelöst ist, wenn ohne Einschränkungen folgende Forderung erfüllt ist – der Widerspruch im Problem besteht nicht mehr!
Spezialisierte
Universelle
Abb. 9.30. Klassifikation der A-Modelle von Transformationen
Komplexe Transformationen physikalischtechnischer Modelle (A- KompaktStandards) - Abschnitt 10, Anhang 2
Integration inverser technischer Widersprüche
- Abschnitt 11.1
Komplexe Transformationen FunktionStrukturModelle - Abschnitt 10, Anhang 1
Integration physikalischer Widersprüche - Abschnitt 12.1
- Abschnitte 11.2-11.3
- Abschnitt 11.4
Integration alternativer Widersprüche (CICO - Cluster In Cluster Out)
- Abschnitt 15.3
- Abschnitte 12.2-12.3 Spezialisierte Transformationen (spezialisierte A-Navigatoren)
Integration alternativer Systeme
Fundamentale Transformationen
Nach dem Modell des Widerspruchs
- Abschnitt 13
Basistransformationen (technische Effekte)
Nach der Ressource
Ressourcenorientierte Auswahl von Transformationen
9 Vom Bestehenden zum Entstehenden 139
140
A-Studio: algorithmische Navigation des Denkens
Praktikum für die Abschnitte 6 – 9
7. Eiswürfel. Viele Kühlschranktypen haben immer noch Formen für die Zubereitung von Eis, die nicht dem idealen Endresultat für das Herauslösen aus der Form entsprechen. Hebelmechanismen, mit denen die Formen ausgestattet werden, zerbrechen das Eis, und der Würfel verliert seine Form. Wenden Sie das funktional ideale Modellieren an, um eine Form zu schaffen, aus der das Eis von allein herausgelangt. 8. Aggressive Flüssigkeit. Um Tests an Metallwürfeln auf ihre Wechselwirkung mit besonders aggressiven Flüssigkeiten durchzuführen, werden diese Würfel in eine Küvettenschale gelegt und mit der Flüssigkeit begossen. Die Schale ist oft schon nach einem Experiment unbrauchbar. Formulieren Sie das ideale Endresultat und schlagen Sie eine Veränderung des Experimentablaufs vor. 9. Abdeckglocken für Kerzen. In manchen Restaurants werden lange zylindrische Kerzen mit Glocken abgedeckt, damit das Licht der Kerze nicht direkt in die Augen scheint. Doch wenn die Kerze herunterbrennt, sinkt ihr Licht unter die Glocke. Was kann man tun, damit das Kerzenlicht immer unter der Glocke bleibt? 10. Sterne des Kremls. Auf hohen Türmen des Kremls in Moskau wurden große Sterne angebracht. Ihr Durchmesser ist größer als 6 Meter. Wie kann die Gefahr verringert werden, dass diese Sterne bei starkem Wind beschädigt werden? 11. Teekanne. Wenn in einer Teekanne nur noch wenig Flüssigkeit übrig geblieben ist, können Teeblätter leicht aus der Kanne in die Tasse gelangen. Man kann natürlich Teebeutel oder Tee-Eier verwenden. Doch ist das nicht immer möglich, besonders wenn man Tee aus verschiedenen Teesorten zubereiten möchte. Die Teekanne selbst sollte also den Teeblättern keine Möglichkeit geben, mit der Flüssigkeit ausgegossen zu werden, wenn nur noch wenig davon geblieben ist. 12. Spielzeug. Kinder wachsen. Aber ihr Spielzeug bleibt klein. Was wäre, wenn einige Spielsachen auch „wachsen“ würden! Machen Sie Vorschläge zu solchen Konstruktionen. 13. Übergang vom Strand. Um zu erreichen, dass kein Sand mit den Schuhen vom Strand auf angrenzende Fußgängerzonen getragen wird, verwendet man... Führen Sie diesen Satz fort. 14. Training für das Wasserspringen. Beim Training zogen sich früher Wasserspringer oft Abschürfungen und ernsthaftere Verletzungen zu, wenn der Sprung oder die Landung im Wasser nicht geglückt war. Wie kann man die Verletzungsgefahr beim Training von Wasserspringern verringern? 15. U-Bahnzüge. Nachts, sowie an Samstagen und Sonntagen sehen die Fahrpläne vor, dass die Züge seltener fahren. Das kann aber zu Unannehmlichkeiten für die Passagiere führen. Welches Einsparungsverfahren wird noch in diesen Zeitintervallen verwendet? Lässt sich dieses Verfahren zum Hauptverfahren machen, anstelle von Fahrplanänderungen? 16. Guy de Maupassant und der Turm von Gustave Eiffel. Es ist bekannt, dass Maupassant zu den Gegnern der Nutzung des Eiffelturms nach der Weltausstellung 1889 in Paris gehörte. Zusammen mit anderen wichtigen Persönlichkeiten unterzeichnete er einen offenen Brief, in dem die Meinung geäußert wurde, dass der Turm für immer die Silhouette von Paris beeinträchtigt.
9 Vom Bestehenden zum Entstehenden
141
Er wäre selbst von den entferntesten Punkten der Stadt sichtbar und nähme den Bewohnern und Besuchern der Stadt das Vergnügen, das traditionelle Stadtbild wahrzunehmen. Heute ist der Eiffelturm eines der Symbole von Paris. Von der Ablehnung des Schriftstellers gegenüber dem Turm wissend, wunderte sich ein Journalist sehr, als er einst Maupassant im Restaurant des Turms traf. Wie erklärte der Schriftsteller dem Journalisten seine (häufigen) Besuche in diesem Restaurant? 17. Bewegungsrichtung einer Flüssigkeit im Rohr. Kehren Sie zum Beispiel 35 zurück und stellen Sie sich vor, dass der Pfropfen aus gefrorenem Eis von der Seite gebildet werden muss, von wo aus das Wasser in das Rohr fließt. Die Fließrichtung des Wassers im Rohr ist unbekannt. Die Richtung muss schnell bestimmt werden, da es sich ja um eine Havarie handelt! 18. Regale im Schuhgeschäft. Die Stellagen in Schuhgeschäften sind in der Regel vollgestellt mit Kartons verschiedener Schuhe. Wie können Regale entlang der Stellagen gebaut werden, um Schuhmuster zeigen zu können, wenn sich die Anzahl der Mustertypen und der Kartons in den Stellagen oft ändert?
Klassische Navigatoren des Erfindens des A-Studios
Meistens verwendet ein Erfinder zwei oder drei Verfahren, die er gut beherrscht. Bei Erfindern, die methodisch vorgehen, sind es fünf bis sieben. Die TRIZ vergrößert das kreative Rüstzeug, durch Dutzende von Verfahren, die in ihrer Gesamtheit ein rationales Schema für die Lösung von Aufgaben darstellen... Dabei schließt die gerichtete Suche bei weitem nicht die Intuition aus. Im Gegenteil, ein geordnetes Denken schafft eine Stimmung, die für das Entstehen von Intuition sehr anregend ist. Genrich Altschuller
10 Navigatoren für Standardlösungen 10.1 Kataloge komplexer Transformationen In die Kataloge der komplexen Transformationen wurden zu Lehrzwecken der Katalog „Funktions-Struktur-Modelle“ (Anlage 1) und der Katalog „A-Kompaktstandards“ (Anlage 2) aufgenommen. Die in diesen Katalogen enthaltenen Empfehlungen sind in recht allgemeiner Form dargestellt, und lassen somit verschiedene Interpretationen und Umsetzungen zu. So kann z.B. eine Lösungsidee mehrere Ressourcen betreffen oder eine Kombination (ein Komplex) aus mehreren speziellen Transformationen sein, wie z.B. bestehend aus A-Navigatoren oder physikalisch technischen Effekten. Diese Besonderheit führte auch zu der Bezeichnung „komplexe Transformationen“. Der Katalog „Funktions-Struktur-Modell“ ist dafür vorgesehen, eine Lösung in allgemeiner Form in 6 Fällen von Systemkonflikten zu erhalten, die sich auf strukturelle Modelle reduzieren lassen können, die in diesem Katalog dargestellt werden. Lösungen in allgemeiner Form, die für zwei Modellgruppen angeboten werden (zu je drei Modellen pro Gruppe), richten sich hauptsächlich auf die Suche nach ökonomischeren Lösungen entsprechend der Strategie Minimale Aufgabe (s. Abschnitt 14.1 Entwicklung von Systemen). Diese Modelle, sowie die dafür angewendeten Lösungsprinzipien, treten sehr häufig auf. Aus diesem Grund wurden sie in der TRIZ auch als „Standardmodelle“ bezeichnet. Der Katalog „A-Kompaktstandards“ beinhaltet ausführlichere Empfehlungen für die Realisierung von Standardtransformationen bei den Modellen aus dem
10 Navigatoren für Standardlösungen
143
Katalog „Funktions-Struktur-Modelle“. Diese Empfehlungen (insgesamt 35) wurden in 5 Gruppen aufgeteilt, die den Hauptinhalt der Transformationen widerspiegeln. Im Ganzen stellt der Katalog „A-Standards“ einen adaptierten TRIZ-Katalog der „Standards“ dar, welcher 77 Standardtransformationen beinhaltet >9@. Die Adaptation wurde durchgeführt, um zu umfangreiche Informationen aus dem ursprünglichen vollständigen Katalog auszuschließen. Der Kompaktkatalog ist um vieles einfacher, zumindest, für das erste Kennenlernen der Standardmodelle. Das allgemeine Schema für die Anwendung der komplexen Modelle lautet folgendermaßen: 1. in der Etappe der Diagnostik oder Reduktion wird ein Funktions-StrukturModell des Konflikts in der operativen Zone konstruiert; 2. wenn die Form des Funktions-Struktur-Modells einem der Typen, die im Katalog aufgeführt sind, entspricht, kann zur Etappe der Transformation übergegangen werden, um eine konkrete Lösung auf der Grundlage der Lösung in allgemeiner Form zu finden, die aus diesem Katalog ausgewählt wurde; 3. entsprechend der ausgewählten Richtung für die Lösungssuche können jetzt genauere Empfehlungen aus dem Katalog „A-Kompaktstandards“ ausgesucht werden; 4. wenn es schwer fällt, unter Berücksichtigung der Besonderheiten der konkreten Aufgabe, die genau passenden Empfehlungen auszuwählen, oder sie sich nur schwer interpretieren lassen, muss zu anderen Modellen übergegangen werden, z.B. auf der Basis von Widersprüchen. Sehen wir uns einige praktische Lehrbeispiele an und halten uns dabei an die Regel dieses Lehrbuchs: vom Einfachen zum Komplizierten. Unser Ziel besteht darin, die unbedingt notwendigen methodischen Schritte bei der Arbeit mit den Katalogen und anderen Modellen zu demonstrieren. Es gibt einige technische Besonderheiten, die in einem Lehrbuch wie diesem nicht gezeigt werden können, da dafür die Seitenzahl nicht ausreicht. Und genau aus diesem Grund untersuchen wir die Beispiele anhand der praktischen Hauptoperationen und dementsprechend wurden die Abschnitte mit der Beschreibung der Beispiele auch als „Anwendungsprinzipien“ für die Lösungsmodelle bezeichnet. 10.2 Anwendungsprinzipien für Standardlösungen Bsp. 51. Hantelscheiben. Beim Ablegen von Hanteln in Trainingsräumen entstehen laute Geräusche, und auch der Boden wird ernsthaft strapaziert. Konstruieren wir das Funktions-Struktur-Modell dieser Problemsituation (Abb. 10.1). Der Boden wirkt positiv auf die Scheiben ein, er stoppt ihre Bewegung. Die Scheiben hingegen wirken negativ auf den Boden ein. Wie oben beScheibe Boden schrieben. Anhand des Katalogs „FunktionsStruktur-Modell“ wählen wir das erste Modell aus, wo die Scheiben der Komponente B, und der Abb. 10.1 Boden der Komponente A entsprechen.
144
Klassische Navigatoren des Erfindens des A-Studios
Empfehlungen aus der äußeren rechten Spalte und ihre Interpretation: - den Stoff einer oder beider Komponenten ersetzen oder verändern: die Scheibe aus einem weicheren Material herstellen (dann wird sie jedoch zu groß, um das Gewicht wie eine Stahlscheibe zu haben); den Boden aus einem festeren und schallschluckenden Material machen (teuer!); - in die Komponenten oder in ihre Umgebung hinein oder auf deren Oberfläche einen Zusatz hinzufügen: um die Scheiben einen dicken Gummiring ziehen (Kontrolllösung 1); einen dicken Gummiläufer auf den Boden legen (Kontrolllösung 2); - den Charakter der Handlung verändern: die Hantel langsam absetzen (das behindert das Training, es können dafür aber spezielle technische Lösungen geschaffen werden, die natürlich nicht die Bewegungsfreiheit der Sportler behindern dürfen). Bsp. 52. Steckverbindung von Leiterplatten. Goldkontakte bei Steckverbindungen von bestimmten Leiterplatten besitzen einen guten (minimalen) Kontaktwiderstand, nutzen jedoch schnell ab, da Gold ein relativ weiches Metall ist. Im Ergebnis dessen steigt der Kontaktwiderstand ständig an, bis er einen unzulässigen Wert erreicht. Dann muss die Steckverbindung oder die Platte insgesamt ausgetauscht werden. Das Schema, welches dieses Problem darstellt, trifft genau so für die Stift- und Fassungsteile von SteckverbinB A dungen zu (Abb. 10.2). Das bedeutet, dass hier die Entsprechungen A und B gleichwertig sind. Das Schema entspricht dem zweiten Modelle aus der Tabelle „FunkAbb. 10.2 tions-Struktur-Modell“. Die Empfehlungen aus der rechten äußeren Spalte sind analog, jedoch geht ihre Interpretation von der Kenntnis physikalisch-chemischer Prozesse in Kontaktpaaren aus und sind natürlich Spezialisten verständlich: - den Stoff einer oder beider Komponenten ersetzen oder verändern: das darf aufgrund der Nutzungsbedingungen für die Steckverbindungen nicht gemacht werden; - in die Komponenten oder ihre Umgebung hinein oder auf deren Oberfläche einen Zusatz hinzufügen: bei Untersuchungen wurde festgestellt, dass der Zusatz von Diamant zum Gold in geringfügigen Mengen den Kontaktwiderstand um 510% erhöht, wodurch die Lebensdauer des Kontakts auf das 3-5fache steigt; - den Charakter der Handlung verändern: die Kontakte nicht schließen und nur an das Fassungsteil andrücken, damit keine Abnutzung wegen Reibung entstehen kann. Das hat jedoch in Apparaturen, die in beweglichen Systemen installiert sind, die unter Vibrations- und Schlagbelastung arbeiten, keinen Effekt. Bsp. 53. Kupferleiter auf Mikrochips. Die Firma IBM teilte 1997 mit, dass die Möglichkeit besteht, Aluminiumleiter durch Kupferleiter auf Mikroschemata zu ersetzen. Kupfer leitet besser den Strom und deshalb können Bahnen aus Kupfer mit einer Breite von 0,2 Mikrometern Aluminiumbahnen von 0,35 Mikrometern ersetzen. Im Prinzip kann dieses Modell auf das Modell des vorherigen Beispiels zurückgeführt werden, an dieser Stelle wollen wir jedoch ein ausführlicheres Modell untersuchen (Abb. 10.3). Die entstandene Platzeinsparung ermöglicht es, auf
10 Navigatoren für Standardlösungen
145
dem Kristall dreimal soviel elektronische Komponenten unterzubringen, die Arbeitsgeschwindigkeit zu erhöhen und den Energieverbrauch zu senken. Jedoch diffundieren die Kupferatome in das Silizium, verändern so seine Eigenschaften und B stören die Arbeit des Schemas. Hier verbessert der Kupferleiter A die funkA tionalen Kennziffern des gesamten Systems B, C verändert jedoch dabei nach und nach die EigenAbb. 10.3 schaften der Siliziumunterlage C, was zu einer Verschlechterung des gesamten Schemas B führt. Am nähesten kommt diesem Modell die Struktur 5 aus der Tabelle „FunktionsStruktur-Modell“. Und erneut geht die Interpretation der Empfehlungen aus der rechten äußeren Spalte von der Kenntnis physikalisch-chemischer Prozesse in Halbleitermaterialien aus. Jedoch ist der Lösungsmechanismus für das Problem universell und hängt nicht von einem „bereichsspezifischen Ursprung“ der Aufgabe ab! Das wichtigste ist die Ähnlichkeit der Modelle – des realen und des Standardmodells aus dem Katalog! Und das ist das Wichtigste, was wir versuchen wol-len in diesen Beispielen zu zeigen. Und so wurde vorgeschlagen, die Zusammensetzung zu verändern, z.B. eine Vermittlerressource einzuführen: zwischen dem Silizium und dem A B Kupferleiter wird eine isolierende Schicht aus einem Material eingesetzt, dessen Zusammensetzung Know-how der Firma IBM ist. Übrigens ist D C es auch nützlich, die sich ergebenden Modelle aufzuzeichnen. Das Modell für das vorliegende Abb. 10.4 Beispiel finden Sie in Abb. 10.4 (D – Vermittler, Zwischenschicht). Die Linien ohne Pfeil zeigen neutrale Wechselwirkungen. Bsp. 54. Granulat für die Beseitigung von Öl. Es sind poröse, schwimmfähige Granulate bekannt, die gut Öl aufsaugen können. Solche Granulate können auf die Oberfläche von Ölverschmutzungen geschüttet werden, die oft bei Tankerunfällen entstehen. Jedoch besteht hier das Problem, dass dieses Granulat leicht von Wind und Wellen fortgetrieben wird. Es ist völlig klar, dass wir es hier mit dem Modell 5 zu tun haben – uneffektive oder fehlende WirB A kung (Abb. 10.5). Stellen wir uns das ideale Endresultat vor: die Granulatkörner A und B „halten Abb. 10.5 sich gegenseitig fest“ und werden so auf dem Wasser nicht fortgetrieben. Es kann sich hier also um die Kombination zweier Standardlösungen für dieses Problem handeln: S1 (Zufügen von Zusätzen) und S2 (Erhöhung der Steuerbarkeit) – Bewirken einer notwendigen Aktion durch Zusatz von Feldern. Wenn wir uns zwei Kompaktstandards ansehen, können wir recht einfach zur Kontrolllösung kommen: dem Granulat werden magnetisierte Teilchen zugesetzt, wodurch seine Körner einander recht stark anziehen. Hier finden wir auch noch einen
146
Klassische Navigatoren des Erfindens des A-Studios
Supereffekt: solche Granulate helfen dabei, das Öl zusammenzuhalten, so dass sich der Fleck nicht auf eine größere Oberfläche verteilen kann. Bsp. 55. „Gepanzerte“ Flasche. Glasflaschen haben keinen negativen Einfluss auf die darin aufbewahrten Flüssigkeiten. Sie können immer wieder verwendet werden. Jedoch haben sie ein großes Gewicht, und sie können zerbrechen. Ein recht vollständiges Modell für die Eigenschaften einer Glasflasche A (Abb. 10.6) beinhaltet die positive Wirkung auf die aufbewahrte Flüssigkeit B und die potentiell negative Wirkung auf ein eventuelles Transportsystem C (großes Gewicht für den Transport) und auf die Umgebung D (wenn die Flasche zerbricht). Konkurrierende Plastikflaschen können bei längerer Lagerung negativen Einfluss auf die Flüssigkeit darin haC A D B ben. So z.B. auf den Geruch des darin aufbewahrten Wassers. Ihr Vorteil ist das geringe Gewicht und der UmAbb. 10.6 stand, dass sie nicht zerbrechen. Ein Mangel ist auch, dass sie nicht mehrfach verwendet werden. Für dieses System kann man folgendes Modell D C A B konstruieren (Abb. 10.7), das nach allen Parametern ein alternatives Abb. 10.7 System, im Verhältnis zur Glasflasche darstellt. Was die Entwicklung der Glasflasche betrifft, handelt es sich um ein System, das sich durch den Erwerb einer zusätzlichen Funktion entwickelt – Erhöhung der Festigkeit, bei gleichzeitiger Reduktion des Gewichts. Das birgt in sich einen äußerst verschärften klassischen Widerspruch. Eine festere Flasche muss dickere Wände haben, und das heißt auch das Gewicht wird größer. Zu dieser Problemstellung passt formal der Standard S4.3 – Erhöhung der funktionalen Belastung auf das System und seine Teile. Für die Plastikflasche passt sowohl dieser Standard als auch die Empfehlung der Einführung von Zusätzen, z.B. in die Innenfläche der Plastikflasche, um den unmittelbaren Kontakt der Plastikmaterialien mit der aufbewahrten Flüssigkeit zu beseitigen. Zu beiden Systemen passt der Standard S4.1 Vereinigung eines Objekts mit einem andern System zu einem komplizierteren Bi- oder Polysystem. Eine solche Vereinigung ist besonders günstig bei alternativen Systemen, mit denen wir es ja im aktuellen Beispiel zu tun haben (Einzelheiten s. Abschn. 15.3 Integration alternativer Systeme). Ein solches Bisystem wurde in Düsseldorf entwickelt: eine Glasflasche wurde mit einem „Panzer“ aus einem durchsichtigen Polyurethanfilm mit einer Dicke von 0,1 mm beschichtet. Bei derselben Festigkeit verringerte sich die Dicke bedeutend (1,4 mm). Eine Packung mit 6 Einliterflaschen wiegt 3,5 kg weniger, als dieselbe Packung mit Glasflaschen! Eine 0,33-Literflasche wiegt nur halb soviel wie ihr Prototyp. Selbst wenn eine solche Flasche zerbricht, bleiben die Scherben
10 Navigatoren für Standardlösungen
147
irgendwie in einer Plastikhülle und fliegen nicht auseinander! Die Flasche kann bis zu 70-Mal verwendet und dann umgeschmolzen werden. Bsp. 56. Rasierklinge Gillette. Rasierklingen haben einen langen Entwicklungsweg durchlaufen. Jedoch ist bei ihrer Entwicklung lange noch kein Ende in Sicht. Wobei es auch prestigereich und nutzbringend ist, in die „alten“ Systeme etwas Neues einzubringen. Was könnte man sich wohl für die Klingenhalterung des Rasierers ausdenken? Um so mehr, da das Strukturmodell nicht allzu informativ ist (Abb. 10.8). Um die Barthaare sauber abzuschneiden, müssen mehrfache Bewegungen gemacht werden, was die Rasierzeit erhöht. Deshalb kann der Hauptpfeil hier als unterbrochene Linie dargestellt werden (uneffektive Aktion). Die Barthaare wirken negativ auf die Klinge, indem sie diese nach und nach stumpf machen, Klinge Haar was auch die Effektivität der Hauptaktion senkt. Hier liegt eine Kombination der Modelle Abb. 10.8 1 und 6 vor. Insgesamt aber können wir vom Anstieg der funktionalen Belastung auf die Schneide der Klinge sprechen. In diesem Fall müssen wir mit der Interpretation des Standards S4 beginnen, z.B. mit der Empfehlung für die Bildung von Bi- oder Polysystemen. Was auch in der Firma Gillette getan wurde: die neue Klingenhalterung hat drei parallel angeordnete Klingen, die einen optimalen Abstand voneinander haben, was gewährleistet, dass bei einem Zug die Menge der abrasierten Barthaare bis auf das dreifache in den unterschiedlichen Ebenen steigen kann. Super-Effekt: Weniger Rasierzüge, und das heißt kürzere Zeit für die Rasur, längere Haltbarkeit des Rasierers. Dieses Beispiel sollte noch einmal selbstständig hinsichtlich des Einflusses der Elastizität der Haare (in verschiedener Höhe von ihrer Austrittstelle) auf den Erfolg des Schneidens mit einer, zwei oder drei Klingen untersucht werden. Bsp. 57. Stadion „France“. Die Tribünen des Leichtathletik- und Fußballstadions „France“ in San Denie (Vorstadt im Norden Paris) sind durch ein Schutzdach in Form einer horizontalen Scheibe mit einer Öffnung in der Mitte geschützt (Abb. 10.9). Die Scheibe wird von Hängeseilen an 18 Stahlmasten in einer Höhe von 50 Metern gehalten. Bei der Projektierung mussten unbedingt Maßnahmen ergriffen werden, dass der Lärm aus dem Stadion nicht die Bewohner der nahe gelegenen Wohngebiete stören kann. Das Modell der funktionalen Wechselwirkung der Komponenten hat folgende Form (Abb. 10.10).
A
B Abb. 10.9
Abb. 10.10
C
148
Klassische Navigatoren des Erfindens des A-Studios
Das Schutzdach A schützt die Zuschauer B vor schlechtem Wetter und zu viel Sonne, jedoch wird der Lärm aus dem Stadion vom Schutzdach reflektiert und breitet sich in die benachbarten Wohngebiete C aus. Das Re-Inventing zeigt, dass das Modell nach Abb. 10.10 irgendwie aus den Modellen 1 und 5 besteht, deshalb kann mit dem Standard S1 begonnen werden, z.B. Hinzufügen von Zusätzen S1.2 und S1.5. Kontrolllösung: um eine Geräuschabsorption zu erreichen wurde für den inneren Ausbau der Scheibe Mineralwatte verwendet. Bsp. 58. Betonkonstruktionen. Hier wollen wir mehrere unterschiedliche Erfindungen untersuchen, deren Grundlage verschiedene Verfahren der Einführung von „Zusätzen“ bilden. An sich haben diese „Zusätze“ nichts Gemeinsames. Und das zeigt ganz speziell den universellen Charakter der TRIZ und die Möglichkeit ihrer breiten Anwendung praktisch in jedem Bereich. TRIZ-Modelle – das sind Modelle des Denkens, konkret des erfinderischen Denkens, und nicht Modelle speziellen professionellen Wissens oder von Prozessen bestimmter industrieller Technologien. Die Modelle der TRIZ haben interdisziplinären Charakter. Das sind Modelle, die aus Erfindungen erhalten wurden, und wiederum der Schaffung neuer Erfindungen dienen. Das sind nützliche Modelle für die ständige Anwendung durch Ingenieure bei der Projektierung oder in der Verwaltung. Die Verbindung der vier Erfindungen und ihrer Kombinationen können mit Hilfe der (Abb. 10.11) leichter verstanden werden. In diesen Beispielen stecken diese oder jene Empfehlungen aus allen fünf Kompaktstandards. Kombination der Ideen Beton mit Kohlendioxid (Gasbeton)
Porenbeton
Flexibler Beton
Beton mit Spannungssensoren
Abb. 10.11. Schema der Verbindung technischer Lösungen für das Lehrbeispiel
Beton mit Kohlendioxid. Betonschwellen auf japanischen Hochgeschwindigkeits-linien halten nur ca. 3 Jahre und müssen danach ausgetauscht werden. Es ist klar, dass die Verlängerung der Haltbarkeit der Betonteile einen großen ökonomischen Effekt hätte. Die Festigkeit von Beton wächst unter natürlichen Bedingungen mit der Zeit unter Reaktion mit Kohlendioxid, das in der Luft vorhanden ist. Im Ergebnis dieser Reaktion wandelt sich Beton in Kalkstein. Doch dauert dieser Prozess extrem lange (Tausende Jahre)! Der Beton für die Schwellen hat sehr kleine Poren. Er erlangt nicht schnell seine Festigkeit, weil das bei der Reaktion mit den ersten Portionen von Kohlendioxid entstehende Wasser die Poren ausfüllt und somit den Eintritt neuer Gasportionen in den Beton hinein verhindert. Um diesen Prozess zu beschleunigen, legte man die Erzeugnisse in Druckkammern, was jedoch auch nicht viel half. 1994 erfand der amerikanische Ingenieur R. Jones ein Verfahren zur Festigung von Beton mit Hilfe so genannten hyperkritischen Kohlendioxids, welches man bei einem Druck von mehr als 73 Atmosphären und bei einer Temperatur von mehr als 31ºC erhält. Unter diesen Bedingungen verflüssigt sich Kohlendioxid und erhält eine hohe Fähigkeit, in Stoffe einzudringen und vollständig ein Erzeugnis
10 Navigatoren für Standardlösungen
149
zu durchtränken. Und so konnte in wenigen Minuten erreicht werden, wozu die Natur Tausende von Jahren braucht! Die Festigkeit eines solchen Betons verdoppelt sich! Im neuen Verfahren für die Festigung von Beton können noch zwei wichtige Supereffekte entdeckt werden. Erstens, in den Erzeugnissen, die man durch das neue Verfahren erhält, ist das Rosten von Stahlteilen innerhalb des Erzeugnisses ausgeschlossen, was oft auch die Verringerung der Festigkeit von Betonkonstruktionen stark fördert. Zweitens, es kommt zu einem bemerkenswerten ökologischen Effekt, im wahrsten Sinne dazu, dass Schaden in Nutzen umgekehrt wird (s. Abb. 8.8 mit Empfehlungen für die Ressourcenauswahl). Der Zement im Beton wird aus Kalkstein oder Kalkmergel hergestellt, indem er in Zementöfen gebrannt wird. Dabei werden große Mengen Kohlenoxide sowohl aus dem verbrannten Kalk als auch aus den verbrauchten Brennstoffen in die Atmosphäre ausgestoßen. Der neue Prozess zur Festigung des Betons verschluckt viel Kohlendioxid und kompensiert in hohem Maße den Schaden, welcher der Natur zugefügt wird. Das Re-Inventing zeigt, welche Standardempfehlungen hier existent sind und auf welche Art sie wirken: S1.4 – der zusätzliche Stoff kann ein Derivat des bereits im System vorhandenen Stoffs sein: es wurde bereits das vorher verwendete Kohlendioxid verändert; S1.8 – man setzt übliche Zusätze zu, jedoch in sehr konzentrierter Form: die Veränderung bestand in der mehrfachen Erhöhung der Konzentration eines üblichen Zusatzes; S1.11 – den Stoff erhält man durch die Veränderung des Aggregatzustands eines Teils des Objekts oder der Umgebung: die Erhöhung der Konzentration wurde durch die Veränderung des Aggregatzustands des verwendeten Zusatzes erreicht: Kohlendioxid wurde in den flüssigen Zustand überführt; S2.1 – einen Teil eines Objekts in ein steuerbares System umwandeln: hyperkritsches Kohlendioxid verfügt über weitaus besser steuerbare Eigenschaften als gasförmiges; S2.4 – Verwendung eines Phasenübergangs eines Stoffs; S4.2 – Beschleunigung der Entwicklung von Beziehungen zwischen Systemteilen: Erhöhung der Intensität der Einwirkung des Kohlendioxids auf den Beton. Das Ziel dieses Beispiels besteht darin, Ihnen die Möglichkeit zu geben, die Ideenbildung für die Lösung nachvollziehen zu können und das Prinzip zu verstehen, mit dem Sie später selbst in Ihrem Bereich, effektive Standardempfehlungen untersuchen und für eigene Aufgaben anwenden können. Das Wichtigste dabei ist, dass die Auswahl von Empfehlungen auf der Grundlage des Probleminhalts realisiert wird, und nicht durch ständige Durchsicht der Standards, obwohl auch das in Extremfällen möglich ist. In jeder Variante ist es nützlich, folgenden Rat zu befolgen: die Empfehlungen müssen so durchgesehen wenden, dass genügend Zeit da ist, sie entsprechend den Bedingungen der zu lösenden Aufgabe zu verstehen und zu interpretieren. Porenbeton. Weite Verbreitung hat in der Bauwirtschaft so genannter Porenbeton mit Luftporen von einem Durchmesser bis zu 3 mm. Die Poren können bis zu 90% des Materials ausmachen. Porenbeton hat viele Vorzüge: geringes Gewicht, ausgezeichnete Wärme isolierende Eigenschaften bei gleichzeitiger Dampf- und
150
Klassische Navigatoren des Erfindens des A-Studios
Luftdurchlässigkeit (vergleichbar mit Holzkonstruktionen). Dieser Beton ist nicht brennbar und nicht toxisch, und es lassen sich leicht in ihn Nägel einschlagen, er lässt sich leicht zersägen und man kann darin leicht bohren. Jedoch ist für die Produktion eines solchen Betons eine teure Ausrüstung nötig (Druckbehälter, Schaumgeneratoren, Mahlaggregate) und der Energieaufwand ist sehr hoch. Außerdem ist die Größe der Poren recht unterschiedlich und sie verteilen sich ziemlich ungleichmäßig im Beton. Im Institut für Beton und Eisenbeton in Moskau wurde eine Technologie auf der Basis spezieller chemischer Zusätze entwickelt, die Poren schafft, welche eine bestimmte Größe haben und sich gleichmäßig im Material verteilen, ohne Notwendigkeit der erwähnten komplizierten und energieaufwendigen Ausrüstung. Für Lehrzwecke ist es ausreichend zu definieren, welche Standards in dieser Erfindung vorhanden sind. Vor allem sollte festgestellt werden, dass das Einbringen von Poren in den Stoff der Umsetzung des Standards S1.5 entspricht. Außerdem hat der Standard S1.10 hier eine Schlüsselrolle gespielt – der Poren bildende Stoff wird in einer chemischen Verbindung zugeführt, aus der er zur notwendigen Zeit herausgelöst wird. Jedoch ist es nicht weniger wichtig, den Standard S5.3 zu berücksichtigen – Nutzung der Möglichkeit der Realisierung von Funktionen auf der Mikroebene (auf der Ebene des Stoffs oder/und von Feldern): hier liegt ein Beispiel für die starke Koagulation eines Systems vor – es wurden teure, energieaufwendige und nichteffektive Ausrüstungen überflüssig! Flexbeton. Dasselbe Institut in Moskau entwickelte eine Technologie zur Herstellung von Stahlbeton ... in Form flexibler Platten! Sie sind für die Ausgestaltung unebener Oberflächen, wie z.B. bei Außenwänden geeignet. Dabei kann zwischen der flexiblen Platte und der Grundmauer eine Wärme- und Feuchtigkeit isolierende Schicht eingelegt werden. Normale Stahlbetonplatten sind nicht flexibel wegen der festen Bewehrung, für die Stahlkerne verwendet werden. Das Ziel einer solchen Aufgabe ist de facto die Erhöhung funktionaler Möglichkeiten des Objekts (Entfaltung nach Standard S4.3), Nutzung der Möglichkeit einer Aufteilung unvereinbarer Eigenschaften zwischen dem gesamten System, das mit der Eigenschaft Flexibilität ausgestattet ist, und einem Teil des Systems (der Oberfläche des Erzeugnisses), das die Antieigenschaft Festigkeit besitzt (Koagulation nach Standard S5.2). Und die Umwandlung eines Teils des Objekts (des Stoffs) in ein steuerbares System – Einsatz spezieller Bewehrungen und eines Herstellungsverfahrens dafür (Erhöhung der Steuerbarkeit nach Standard S2.1). Die Flexibilität der Platten wird dadurch erreicht, dass als Bewehrung im Voraus gedehnte hochfeste Stahlseile verwendet werden. Der Prozess der Herstellung der fertigen Platten beinhaltet eine zusätzliche Verdichtung des Gemischs und eine Abb. 10.12 spezielle thermische Befeuchtung. Im Ergebnis der neuen Technologie erhält man leichte und feste Platten mit einer Dicke von 3-6 cm bei einer Breite von bis zu 3 m und einer Länge von 12, 18 und 24 Metern (Abb. 10.12)!
10 Navigatoren für Standardlösungen
151
Beton mit Spannungssensoren. Zu Testzwecken von Baukonstruktionen werden spezielle Muster von Stahlbetonerzeugnissen entwickelt. Für die Messung der inneren Spannung in der Konstruktion verwendet man ein Netz tensometrischer Sensoren, die gemeinsam mit der Bewehrung in die Betonmasse eingelegt werden. Hier wird eindeutig der Standard S3.4 angewendet – Einführen von Zusätzen in bereits bestehende Stoffe (einschließlich die Umwelt) oder/und auf die Oberfläche des Objekts, um leicht nachweisbare (messbare) Felder zu schaffen, anhand derer sich der Zustand des beobachteten Objektes bewerten lässt. Eine solche Lösung kann in realen Bauwerken auch verwendet werden (Wände und Fundamente von Gebäuden in denen hochpräzise Erzeugnisse hergestellt werden, Gebäude in seismisch gefährdeten Gebieten, Brücken, Hochhäuser und Telekommunikationstürme), um ständig Deformationen nachvollziehen zu können. Kombination von Ideen. Gute Lösungen ziehen meist eine ganze Serie neuer Ideen nach sich (s. auch Abschn. 17.2 Entwicklung einer Lösung). So wurden z.B. für die Weiterentwicklung der Idee von der Bearbeitung mit hochflüssigem Kohlendioxid folgende Vorschläge gemacht. Farbe dringt schlecht in die Poren dichten Betons ein und schützt so die Konstruktion nur schlecht vor eindringender Feuchtigkeit. Wenn aber bei der Herstellung von Baukonstruktionen farbige Elemente mit hochflüssigem Kohlendioxid bearbeitet werden, kann er die kleinen äußeren Poren dicht schließen und recht tief unter die Oberfläche des Erzeugnisses eindringen. Das letzte Ergebnis verfügt noch über einen Supereffekt: die Langlebigkeit der Farbe wächst. Hier finden wir die Standards S1.1, S1.2, S1.8, S2.1, S4.1, S5.3. Betrachten Sie diese gemeinsam in Bezug auf dieses Beispiel. Diese Standards „arbeiten“ auch bei folgender kombinierten Idee: Stoffe mit Hilfe hochflüssigen Kohlendioxids, die sich darin gut auflösen lassen, in Beton einbringen, z.B. Polymere. Im Ergebnis erhält der Beton flexible Eigenschaften, was beim Straßenbau für flexible obere Schichten nützlich sein kann. Flüssiges Kohlendioxid ist relativ beständig, dadurch kann es auch bei der Bearbeitung von Oberflächen bereits bestehender Bauwerke eingesetzt werden. So können hochqualitative Färbungen flexibler großer Betonplatten erreicht werden. Das macht das Bauwerk resistenter gegenüber saurem Regen und natürlichen atmosphärischen Erscheinungen. Als Abschluss kann man folgende zusätzliche Schlussfolgerungen ziehen. Ungeachtet der scheinbaren Einfachheit, und sogar teilweisen Trivialität der Empfehlungen, die in den Formulierungen der Standards enthalten sind, muss berücksichtigt werden, dass sie alle Modell großartiger Erfindungen sind, und dass ihre Auswahl für eine konkrete Anwendung einen äußerst großen Effekt haben kann, ohne dass kompliziertere Modelle konstruiert werden müssen. Noch bessere Ergebnisse können erreicht werden, wenn Standards gemeinsam mit Gesetzen und Linien der Systementwicklung angewendet werden. Und letztendlich: diese Modelle ersetzen nicht professionelles Wissen, sondern sie helfen, die Problemsituation zu strukturieren und Lösungsrichtungen vorzuschlagen.
152
Klassische Navigatoren des Erfindens des A-Studios
11 Navigatoren für die Lösung technischer Widersprüche 11.1 Integration inverser technischer Widersprüche In der Praxis passiert es oft, dass bereits die Formulierung eines Widerspruchs direkt die Lösungsidee vorhersagt. Da aber Ingenieure, die nicht mit der TRIZ vertraut sind, Widerspruchsmodelle nicht in der Form verwenden, wie es die TRIZ empfiehlt, haben sie bereits von Anfang an nicht die Möglichkeit, schnell einfache und effektive Lösungen in vielen solchen Standardsituationen zu finden. Die systematische Anwendung der TRIZ-Modelle hingegen, gewährleistet ein zielgerichtetes und diszipliniertes Handeln bei der Lösung eines Problems und fördert die Fähigkeit, reale Möglichkeiten oder auch Einschränkungen bei der Generierung einer Lösung rechtzeitig zu erkennen. Besonders anschaulich kann man das an einfachen Beispielen demonstrieren, deren Lösung ohne TRIZ-Modellierung einst recht viel Zeit brauchte oder nur ein Zufallstreffer war. Zu diesen Beispielen gehören Situationen, in denen eine kombinierte Betrachtung des inversen Widerspruchs fast direkt die Lösungsidee vorhersagt. Das ist besonders solchen Modellen zueigen, die sich vom Verfahren der Ausführung der Hauptoperation her gegenüber der Realisierung der nützlichen Hauptfunktion des Objekts unmittelbar invers verhalten. Auf der Grundlage ähnlicher Beispiele wurde vom Autoren dieses Lehrbuchs 1987 die „Methode der Integration inverser Widersprüche“ formuliert. Das Wesen dieser Methode besteht in folgendem: - einen direkten und inversen Widerspruch konstruieren; - ein integriertes Modell konstruieren, in dem von alternativen Beschreibungen funktionaler Aktionen der Actors und von zueinander inversen Modellen nur die positiven Eigenschaften (Plus-Faktoren) verbunden werden. Sehen Sie sich noch einmal die Widersprüche in Abschnitt 9.1 Widersprüche an, speziell nach Abb. 9.1 Verallgemeinerte graphische Form der Darstellung binärer Widersprüche. Bsp. 59. Weinstock (Lösung mit Hilfe der Integration inverser technischer Widersprüche). In diesem Beispiel gibt es die äußerst interessante Möglichkeit, die Aufgabe bereits bei der Konstruktion von Widerspruchsmodellen in der Etappe der Reduktion zu lösen. Untersuchen wir diese Möglichkeit und beginnen mit der Fixierung der inversen Widersprüche (Abb. 11.1). Funktion-Handlung: Legen des Weinstocks auf den Boden a)
b)
Funktion-Handlung: Belassen der Stöcke am Spalier
Plus-Zustand: Verluste (gering) Minus-Zustand: Zeit- und Arbeitsaufand groß (steigt) Plus-Zustand: kein Zeit- und Arbeitsaufwand (fehlt) Minus-Zustand: Verluste (steigen)
Abb. 11.1. Binäre Modelle für Beispiel 6: a) „direktes“; b) „inverses“.
11 Navigatoren für die Lösung technischer Widersprüche
153
Um zum entscheidenden Modell mit einer direkten Lösungsvorhersage zu kommen, reicht es aus, die inversen Funktionen-Handlungen und die Plus-Faktoren aus den Modellen 11.1a und 11.1b zu verbinden: „Legen des Stocks auf den Boden“ und „ Belassen des Stocks am Spalier“, das ergibt: „Verluste (gering)“ und „Zeit- und Arbeitsverluste (fehlen)“ – daraus folgt: geringer Arbeitsaufwand beim Legen der Stöcke auf den Boden. Da das Legen der Weinstöcke auf den Boden eine unabdingbare Funktion ist, könnte das Ziel allein eine Verringerung des Arbeitsaufwands bei dieser Operation sein. Aus diesem Grund wurde auch eine Dynamisierung in die Konstruktion eingebracht. Beachten Sie bitte, dass hierbei auch das Problem der Haupthandlung nach dem inversen Modell gelöst wurde – Belassen der Weinstöcke an den Spalieren, jedoch an liegenden Spalieren! Bsp. 60. Erhitzung von Siliziumplatten. In einer von verschiedenen Operationen wurden Siliziumplatten mit einem Wärmestrahler erhitzt, der über die Platte in Form einer Leiste installiert wurde. In dieser Leiste befand sich ein Heizelement in Form einer dicht gewundenen Spirale. Das Problem bestand darin, dass im Mittelteil unter der Heizleiste eine höhere Temperatur entstand als an den Rändern. Das führte zu einer wärmebedingten Deformation der Platte. Wie wurde das System später verändert? Gehen wir davon aus, dass die Etappe der Diagnostik in der Aufgabenstellung beschrieben ist. Zusätzliche Informationen finden Sie in der Zeichnung (Abb. 11.2). Während wir zur Reduktion übergehen, konstruieren wir Modelle des Widerspruchs. Technischer Widerspruch: ein normales Wärmefeld (Spiralen des Induktors) erhitzt die Platte (Rezeptor) bewirkt aber eine Überhitzung Abb. 11.2. Erhitzen und Deformation von Siliziumplatten im Zentrum der Platte. Inverser Widerspruch: ein schwaches Wärmefeld (Spiralen) überhitzt nicht das Zentrum der Platte, erhitzt aber die Ränder der Platte nicht ausreichend. Was fällt dabei auf: erstens, muss nach der TRIZ der Induktor verändert werden und zweitens, brauchen wir eine genaue Beschreibung alternativer Prozesse. Das führt dazu, dass man bei der Lösung der Aufgabe die Methode der Integration inverser Widersprüche anwenden kann. Wenn wir zur Etappe der Transformation übergehen, notieren wir ein integriertes Modell, indem wir aus beiden Widersprüchen die besten Aspekte übernehmen: ein normales Wärmefeld erhitzt die Ränder der Platte gut, und ein schwaches Wärmefeld erhitzt das Zentrum der Platte gut. Scheint es Ihnen nicht auch so, dass nach einer solchen Aussage nur noch ein gar nicht so großer kreativer Schritt zur Idee einer technischen Lösung gemacht werden muss? Machen wir diesen Schritt: damit das Wärmefeld über dem Zentrum der Platte schwächer wird, erhöhen wir an dieser Stelle die Stärke der Heizspirale! Zeichnen Sie eine genaue Skizze! Als Gegenbeispiel wenden wir uns dem Fakt zu, warum die Integration technischer Widersprüche im Beispiel 13 (und in vielen ähnlichen) nicht den gewünschten Effekt bringt. Eine Voraussage der Lösungsidee ist fast unmöglich weil, alternative Aktionen keine deutliche funktionale Beschreibung haben (Abb. 11.3) und nicht zeigen, wie genau die Bruchstücke beseitigt werden (nicht beseitigt werden!). Hier finden wir nur eine einfache Negation der Hauptaktion.
154
Klassische Navigatoren des Erfindens des A-Studios
Plus-Faktor
a)
Funktion-Handlung: Bruchstücke werden beseitigt
Zustand: keine Verschmutzung des Bodens Zustand: hoher Arbeitsaufwand
Minus-Faktor
b)
Plus-Faktor Funktion-Handlung: Bruchstücke werden nicht beseitigt
Zustand: Null-Arbeitsaufwand
Zustand: Verschmutzung des Bodens Minus-Faktor Abb. 11.3. Binäres Modell für Beispiel 13: a) „direktes“; b) „inverses“.
11.2 A-Katalog und A-Matrize spezialisierter Transformationen Zu den bekanntesten und sicher auch populärsten TRIZ-Instrumenten gehören die spezializierte Navigatoren („Verfahren“ der TRIZ). Die bisher betrachteten Beispiele konnten schon zweifelsfrei eine bestimmte Vorstellung von diesen Instrumenten vermitteln. Jetzt wollen wir die Grundregeln festigen und einige Besonderheiten bei der Anwendung der Navigatoren konkretisieren. Selbstverständlich, lösen sich in der Etappe der Diagnostik oder der Reduktion nicht alle Aufgaben von allein, wie wir es im vorherigen Abschnitt 11.1. gesehen haben. Und dann beginnt die Suche nach einem Navigator zur Beseitigung des herausgestellten Systemwiderspruchs, genauer gesagt – zur Beseitigung der Bedingungen, die diesen Widerspruch hervorrufen. Hier haben wir es nun nicht mehr mit einer „einzelnen“ Kette logischer Operationen zu tun. Jetzt muss man suchen. Kann man aber in einem solchen Fall von einer wissenschaftlichen Methode sprechen? Ja, man kann. Erstens, die Modelle steuern streng die Suche: der Spezialist sucht nicht irgendeine „erleuchtende“ Idee, sondern einen Navigator für die Veränderung konkreter Bedingungen, die den Systemwiderspruch hervorgerufen haben. Der Spezialist weiß, was er braucht, und sucht nur noch, wie er das realisieren kann. Und Modelle der gesuchten Lösung sind Navigatoren, die in der Technik bekannt sind, nur nicht bezogen auf diese Aufgabe (oder den betreffenden Bereich der Technik). Es gibt keine magische Formel, aber es gibt Navigatoren, die für die meisten Fälle ausreichend sind. Zweitens, die Suche vollzieht sich nach einem rationalen Schema, hauptsächlich nach dem Meta-ARIZ (oder Mini-ARIZ). Jede technische Aufgabe ist auf ihre Art einmalig. In jeder Aufgabe gibt es etwas Unwiederholbares. Die Analyse gibt uns die Möglichkeit, zum Wichtigsten vorzudringen – zum Systemwiderspruch und seinen Ursachen. Und die Situation ändert sich sofort. Wiederholen wir noch einmal die Formulierung einer der wichtigsten Entdeckungen G. Altschullers, des Begründers der TRIZ, mit seinen Worten (s.S. 37): 1. Erfinderische Aufgaben – gibt es unzählige, jedoch Typen von Systemwidersprüchen verhältnismäßig wenige.
11 Navigatoren für die Lösung technischer Widersprüche
155
2. Es gibt typische Systemwidersprüche und es gibt typisierte Erfindungsverfahren ihrer Beseitigung. Jedoch wurde diese Entdeckung erst 1971 in der bekannten Matrize der Navigatoren von Genrich Altschuller realisiert (Anlage 3 A-Matrize zur Auswahl der spezializierten Navigatoren). Im Algorithmus des Erfindens von 1961 gab es z.B. noch keine Aufteilung der Widersprüche in Arten und er war nur eine Liste mit Navigatoren, die Ähnlichkeit mit einer Aufstellung von Kontrollfragen aus dem Brainstorming hatte! Diese Liste wuchs bis 1971 auf 40 Navigatoren an (Anlage 4 Katalog Spezialisierter A-Navigatoren)! Der ARIZ in der Form von 1961 empfahl die Betrachtung aller bis dahin gesammelter Navigatoren von „einfachen“, oft in realen Erfindungen verwendeten bis hin zu „komplizierten“, in der Praxis relativ selten vorkommenden. Der Autor hat im Katalog die Navigatoren nach der Häufigkeit ihrer Anwendung in der AMatrize geordnet. So ist der häufigste Navigator der Navigator Nr. 01, darauf folgt Nr. 02 usw. Gewissermaßen entspricht das auch der Häufigkeit der Anwendung in der Praxis. Zusammen mit den Unterverfahren beinhaltet der Katalog mehr als 100 konstruktiver Empfehlungen! Natürlich braucht man für deren Auswahl gewisse Erfahrungen. Aus diesem Grund erwies sich die A-Matrize zur Auswahl der Navigatoren als äußerst bequemes Instrument, besonders für Personen die gerade anfangen, sich die TRIZ anzueignen. Die A-Matrize dient als erster Navigator für den Übergang vom Widerspruch zu den Navigatoren in der Etappe der Transformation. Der Übergang vollzieht sich folgendermaßen: 1. konstruieren eines technischen Widerspruchs, ausgehend von den Bedingungen der Problemsituation; 2. für die positive Eigenschaft des Widerspruchs aus der A-Matrize den PlusFaktor auswählen, der am ehesten dem physikalisch-technischen Inhalt der positiven Eigenschaft entspricht; 3. analog zu Punkt 2, den Minus-Faktor aus der A-Matrize auswählen; 4. notieren der Nummern der Navigatoren des A-Katalogs aus dem Kästchen, das sich am Schnittpunkt der Zeile des Plus-Faktors und der Spalte des MinusFaktors befindet; 5. Möglichkeiten der Interpretation der Navigatoren aus dem A-Katalog entsprechend den Bedingungen der zu lösenden Aufgabe betrachten, mit dem Ziel den vorliegenden Widerspruch zu beseitigen. Anmerkung zu Punkt 1: der Versuch, in der Ausgangsdefinition der Konfliktfaktoren im Widerspruchsmodell die Bezeichnungen der Eingänge in die AMatrize zu verwenden, kann zu unwahren Modellen führen, da deren physikalischer Inhalt verzerrt wird! Anmerkung zu den Punkten 2 und 3: wenn mehrere Plus- und MinusFaktoren vorhanden sind (Eingänge in die A-Matrize), die dem positiven und negativen Faktor im Modell des technischen Widerspruchs nahe stehen, ist es nützlich, auch diese Faktoren für die Auswahl zusätzlicher Navigatoren aus dem A-Katalog zu verwenden. In diesem Fall kann auch die Methode der Integration alternativer technischer Widersprüche „CICO“ angewendet werden (Abschn. 9.4).
156
Klassische Navigatoren des Erfindens des A-Studios
Für qualifizierte Fachleute, die dauerhaft mit Ressourcen arbeiten, ist es nützlich zu erwähnen, dass die Eingänge in die A-Matrize vom Autoren im Werk [10] in zwei Gruppen restrukturiert wurden: system-technische Faktoren von 01 bis 14 und physikalisch-technische Faktoren von 15 bis 39. 11.3 Prinzipien für die Anwendung der Navigatoren Es ist notwendig zu betonen, dass die Navigatoren zur Beseitigung von Widersprüchen [3] in allgemeiner Form formuliert sind. Sie ähneln einem Konfektionskleidungsstück: sie müssen unter Berücksichtigung individueller Besonderheiten einer Aufgabe passgerecht gemacht werden. Und so wenden wir uns jetzt den Besonderheiten der Anwendung der A-Navigatoren zu – von den „einfachen“ hin zu den komplizierteren und zu Gruppen von Navigatoren. Bsp. 61. Löschen von Bränden an Erdöl- und Gasbohrlöchern. Ein Brand an Erdöl- und Gasbohrlöchern ist eine große ökologische Katastrophe. Einen solchen Brand zu löschen, ist äußerst schwierig. Gelöscht wird, indem mit Panzern auf die Öffnung des Bohrlochs geschossen wird und Bomben abgeworfen werden. Dabei hofft man, dass die aufgewirbelte Erde das Bohrloch zuschüttet. Andere Technik an das Bohrloch heranzuführen, erweist sich als unmöglich, da der Boden in einem Umkreis von mehreren Dutzenden Metern auf Temperaturen von mehreren Hundert Grad erhitzt ist. Es gab Fälle wo solche Brände sich über mehrere Monate oder sogar länger als ein Jahr hinzogen. In dieser Zeit verbrennen Hundert Tausende Tonnen von Brennstoffen, was der Atmosphäre großen Schaden zufügt. Der Boden und das Grundwasser um das Bohrloch herum werden mit Ölprodukten verseucht. Konstruieren wir den technischen Ausgangswiderspruch: um den Austritt des Erdöls aus dem Bohrloch zu stoppen, muss gesichert werden, dass Technik dorthin vordringen kann, jedoch das Feuer lässt das nicht zu. Reduziertes Modell: Plus-Faktor 10 Benutzungsfreundlichkeit und Minus-Faktor 13 Äußere schädliche Faktoren. Navigatoren und ihre Interpretation: 04 Ersatz der mechanischen Materie – hier entsteht zumindest die Assoziation, dass es notwendig ist, ein neues Wirkungsprinzip zu finden. Veränderung der Struktur und Dynamik der Kräfte und Felder, d.h. ein neues Prinzip des Unterbindens, des Stoppen des Brands (wir verzichten hier auf den Terminus „Löschen des Brands“); 05 Ausgliedern – aus der Brandzone Sauerstoff (Luft), Erdöl oder Gas ausgliedern, nicht zulassen, dass diese Stoffe in die Brandzone gelangen! 23 Verwendung inerter Medien – vom Wesen her wäre das hier die Anwendung eines Schaumgenerators, was ein Versuch wäre, den Zutritt von Sauerstoff in die Brandzone zu verhindern, jedoch ist diese Technologie wenig effektiv; 29 Selbstbedienung – ideales Modell: das Bohrloch selbst unterbindet beim Brand das Austreten von Erdöl oder Gas an die Oberfläche! Am besten sieht der letzte Vorschlag aus. Die Frage aber ist, wie er realisiert werden kann? Übrigens entsteht gemeinsam mit Navigator 05 folgende Idee – ein zusätzliches geneigtes Hilfsbohrloch bohren, welches sich in ausreichend
11 Navigatoren für die Lösung technischer Widersprüche
157
ungefährlicher Tiefe mit dem Schacht des Havariebohrlochs trifft. Danach kann man durch dieses Hilfsbohrloch zum Schacht des Havariebohrlochs Sprengstoff und spezielle Lösungen bringen, um das Havariebohrloch in der Tiefe mit einer Art „Pfropfen“ zu verschließen. Kontrolllösung (Abb. 11.4): in Russland wurde eine Methode entwickelt, wonach sich von einem sicheren Abstand aus in einem Winkel ein spezielles „unterirdisches Fahrzeug“ zum Schacht des Havariebohrlochs in einer bestimmten Tiefe bewegt. An der Stelle, wo das Fahrzeug auf den Schacht des Havariebohrlochs trifft, kann es die Arbeit eines „unterirdischen Abb. 11.4. Unterirdisches Fahrzeug Bulldozers“ ausführen und nach und nach den Schacht zudrücken und verengen, bis er fährt zum Schacht des brennenden völlig mit Gesteinsmassen verschlossen ist. Bohrlochs Es sollte noch festgestellt werden, dass dem Navigator 29 in der Kontrolllösung auch eine wichtige Rolle zukommt, weil das „unterirdische Fahrzeug“, ein System der Selbststeuerung verwendet, indem es sich unter der Erde anhand von Signalen orientiert, die vorher im Hilfsschacht installiert wurden. Erinnert Sie diese Lösung nicht an das utopische Werk von Jules Verne „Reise zum Mittelpunkt der Erde“? Die hier vorgestellte Idee ist nur eine von vielen in Russland seit den 1920er Jahren entwickelten Ideen für unterirdische Fahrzeuge für das Verlegen von Rohren und Kabeln, Tunneln und Wegen, für die Erkundung von Rohstofflagerstätten, beim Abbau von Gold und Diamanten. Bsp. 62. Jeans als ... Dünger. In der Stadt El Paso (State Texas, USA) bearbeiten einige Fabriken genähte Jeans durch Waschen in heißem Wasser mit Steinen die in einer Waschmaschine mitlaufen. Diese Bearbeitung erfolgt auf Bestellung bekannter Jeanshersteller, wie z.B. Levy Strauss. Jeans werden auch mit Sandstrahlmaschinen bearbeitet. Im Ergebnis einer solchen Bearbeitung entstehen viele Baumwollabfälle. Eine Fabrik allein bearbeitet in einer Woche ca. 300 Tausend Jeans, wobei 50 m3 dieser Abfälle entstehen. Technischer Widerspruch: je höher die Produktivität, desto mehr Abfälle. Reduzieren wir den Ausgangswiderspruch auf Standardbezeichnungen der Eingänge in die A-Matrize: Produktivität als PlusFaktor und negative Faktoren des Objekts selbst als Minus-Faktor. Am Schnittpunkt der 1. Zeile und der 14. Spalte finden wir das Kästchen mit folgenden Verfahren: 01 Veränderung des Aggregatzustands, 06 Verwendung mechanischer Schwingungen, 21 Schaden in Nutzen umwandeln und 23 Verwendung inerter Medien. Natürlich ist der Navigator 21 besonders interessant, a: Verwenden schädlicher Faktoren für den Erhalt eines positiven Effekts. Kontrolllösung: Einbringen der Baumwollabfälle in den Boden auf Feldern. Verifikation: der Ertrag an Gräsern erhöhte sich auf ein Vielfaches, und die Keimfähigkeit von Baumwollund Weizensaat stieg um 60%. Der Staat Texas hat ja ein trockenes Klima, und die Baumwollabfälle können 4-mal besser Wasser speichern als der unbearbeitete Boden.
158
Klassische Navigatoren des Erfindens des A-Studios
Bsp. 63. Das Neue ist oft gut vergessenes Altes! Hier wollen wir ein ReInventing durchführen, aber auch neue Ideen vorschlagen. Eines der ernstesten Probleme auf Straßen ist, dass oft Informationen über den Zustand der befahrenen Straßen fehlen. Teilweise werden diese Informationen im Radio gesendet, wie z.B. Informationen über große Staus. Das betrifft aber Autobahnen oder große Bundesstraßen und reicht in der Regel in vielen Fällen nicht aus. Manchmal ist es wichtig auch operative Informationen zu erhalten, die z.B. ein Fahrer an hinter ihm fahrende Fahrzeuge weiterleiten kann. Das könnten Mitteilungen sein, wie Informationen über Geschwindigkeitsbeschränkungen (Baustellen), die in einem bestimmten Bereich früher nicht bestanden haben; unerwartete Hindernisse – Radfahrer oder Fußgänger; plötzliche Straßenschäden oder Glatteis u.ä. Solche Informationen wären besonders bei eingeschränkter Sicht wie z.B. nachts sehr nützlich. Ebenso nützlich wären Informationen über technische oder medizinische Hilfe oder Vorwarnungen, dass Kinder in Fahrzeugen sitzen. Außerdem ist klar, je größer die Geschwindigkeit ist, desto besser wäre es rechtzeitig Informationen zu erhalten. Die letzte Feststellung kann als technischer Ausgangswiderspruch betrachtet und folgendermaßen reduziert werden: 22 Geschwindigkeit als Plus-Faktor und 12 Informationsverluste als Minus-Faktor. Die empfohlenen Navigatoren sind: 10 und 11. Zeichnen wir ein allgemeines Porträt der Lösungsidee: 10.a: anstelle eines unzugänglichen Objekts seine Kopie verwenden – z.B. ist die Mitteilung über ein Hindernis nichts anderes als eine Informationskopie des Objekts, welches vom nachfolgenden Fahrzeug nicht unmittelbar wahrgenommen werden kann; 10.b: ein Objekt oder ein System von Objekten durch ihre optischen Kopien ersetzen – z.B. durch Zeichen oder Wörter, die nach hinten zum nachfolgenden Auto übertragen werden; 11: den unbeweglichen Teil eines Objekts beweglich machen – in der operativen Zone am Heck des voran fahrenden Fahrzeugs muss eine Vorrichtung sein, die Informationen an das folgende Fahrzeug vermittelt, z.B. durch optische Verfahren. Bereits Ende der 1980-er Jahre testete die Firma Ford an dem Automobil „Aerostar“ ein Display, das über der hinteren Stoßstange angebracht war. Solche Displays mit laufenden Schriftzeilen werden bei U-Bahnen, auf Bahnhöfen und zu Werbezwecken häufig angewendet. Die Steuerung sollte mit Hilfe von Funktionstasten realisiert werden, die auf das Display kurze Standardmitteilungen übertragen. Einer der Mängel eines solchen Navigators ist die unbequeme Auswahl und Bedienung der Tasten. Heute können wir zu einer „alten“ Idee mit neuen Möglichkeiten zurückkehren, die aus der Technologie des Autotelefons übernommen wurde: für die Übertragung der notwendigen Mitteilung können Kommandos mit der Stimme erteilt werden. Entwickeln Sie doch diese Richtung weiter und lassen sich eine effektivere Idee patentieren. Bsp. 64. Rettung in Lawinen. Jährlich sterben Dutzende Bergsteiger und Skifahrer im Gebirge bei Lawinenunglücken. Bei unerwarteten Lawinenabgängen bleibt nur extrem wenig Zeit, um irgendwelche Rettungsmanöver durchführen zu
11 Navigatoren für die Lösung technischer Widersprüche
159
können. Daher rührt auch die niedrige Zuverlässigkeit verschiedener Empfehlungen für die Rettung bei Lawinenabgängen. So treten hier also die Zeit und die Zuverlässigkeit als Konfliktfaktoren auf. Es muss also die Zuverlässigkeit der Rettungsoperationen verbessert werden. Wenn wir uns unmittelbar an die A-Matrize wenden, erhalten wir folgende Gruppe von empfohlenen Navigatoren: 05 Ausgliedern; 11 Entgegengesetzt und 28 Vorher untergelegtes Kissen. Notieren wir uns die wichtigsten Empfehlungen aus diesen Navigatoren: im Objekt das notwendige Teil ausgliedern (den zu rettenden Menschen); anstelle der Aktion, die von den Bedingungen der Aufgabe vorgegeben sind (der Mensch versinkt im Schnee), eine entgegengesetzte Aktion ausführen (der Mensch taucht aus dem Schnee auf); die relativ geringe Zuverlässigkeit eines Objekts durch vorher präparierte Havarievorkehrungen kompensieren. Stellen wir ein verallgemeinertes Modell auf: in der Bergausrüstungen der Menschen müssen vorher präparierte Havariemittel integriert werden, die ihn an die Oberfläche des Schnees heben und nicht zulassen, dass er im Schnee untergeht. Ideales Resultat: eine ɏ-Ressource, welche die Ausrüstung absolut nicht verkompliziert, trägt den Menschen in der operativen Zeit auf die Oberfläche des Schnees. Man braucht einen „Rettungsring“ in der Lawine! Aber einen solchen „Ring“ trägt man ja nicht auf dem Rücken! Anforderungen an die Ressourcen: Systemressource – die Ressource soll nicht kompliziert sein; Raumressource – die Ressource soll nicht viel Raum einnehmen; Energieressource – die Ressource darf nicht viel Energie verbrauchen, um in Aktion zu treten. Das ist nicht gerade wenig, aber das reicht trotzdem nicht für konstruktive Voraussagen. Stellen wir ein zusätzliches Paar von Konflikteigenschaften zusammen: Kompliziertheit der Konstruktion als Plus-Faktor und Energieverbrauch des beweglichen Objekts als Minus-Faktor. Wir fixieren also einen der Faktoren als positiven und erreichbaren im hypothetischen System, und einen anderen als negativen, der verbessert werden muss. Hier wird ganz deutlich auf eine Mini-Strategie orientiert: ohne wesentliche Verkomplizierung eine hohe Qualität der Lösung erreichen. Wir erhalten zusätzliche Empfehlungen: 04 Ersatz der mechanischen Materie, 05 Ausgliedern (mehrfach); 13 Billigere Nichtlanglebigkeit als Ersatz für teure Langlebigkeit und 14 Verwenden von pneumatischen und hydraulischen Konstruktionen. Das Schlüsselnavigator, was unmittelbar zur Lösung führt, ist der Navigator 14: anstelle fester Teile des Objekts gasförmige oder flüssige verwenden – aufblasbare und mit Wasser füllbare, Luftkissen. Kontrolllösung (Abb. 11.5): der deutsche Unternehmer Peter Aschauer entwickelte eine neue Rettungseinrichtung – einen aufblasbaren Sack aus grell orangefarbenem Nylon, der in einem kleinen Rucksack auf dem Rücken befestigt ist und mit komprimiertem Stickstoff Abb. 11.5. Aufblasbarer aus einer kleinen Patrone aufgeblasen werden Rettungssack kann.
160
Klassische Navigatoren des Erfindens des A-Studios
Die Patrone kann vom Menschen bei Gefahr geöffnet werden. Man kann sehen, dass hier gleichzeitig Empfehlungen aus den Navigatoren 05, 11, 13 umgesetzt wurden und, natürlich auch aus 28! Mit der Kenntnis der Kontrolllösung im Hintergrund, führen Sie bitte ein Re-Inventing mit diesen Navigatoren selbstständig durch. Sie haben sicher bemerkt, dass wir hier entgegen der Anmerkung zu Punkt 1 (s. oben Abschn. 11.2) erstens eine unvollständige Konstruktion der Widerspruchsmodelle verwendet haben, und zweitens die Eingänge in die A-Matrize für die Modellierung der Konflikteigenschaften. Hier sollte gezeigt werden, dass es in der Praxis oft zu Situationen kommt, wo Neulinge (sehr oft!) aber auch erfahrene Kenner der TRIZ (für eine orientierende Express-Analyse!) die erwähnte Anmerkung ignorieren. Für Neulinge ist das ziemlich schädlich, da das die Aneignung und Anwendung der TRIZ-Prinzipien bremst und verzerrt. In einem solchen Fall ist es besser, sich die Navigatoren des gesamten A-Katalogs anzusehen! Es ist klar, dass es sich hierbei um eine nicht gerade effektive Praxis des Selbststudiums handelt, dennoch sollte hier zumindest die logische und adäquate Auswahl der Eingänge in die A-Matrize gezeigt werden, sowie in etwa der Weg der Überlegungen bei der richtigen Lösung einer Aufgabe. Bsp. 65. Sortieren von Metallschrott. Bei der Verarbeitung defekter oder verschlissener Maschinenteile und Metallschrott muss der Schrott für eine erneute Verwendung vor allem getrennt werden. So z.B. nach Metallarten wie Bunt- und Schwarzmetalle (verschiedene Stähle) usw. Eine Sortierung von Hand bringt gute Ergebnisse, ist aber äußerst unproduktiv. Das erklärt sich daraus, dass die Komponenten einzeln aus dem Schrott ausgesondert werden und dann an den Platz der Messung gebracht werden müssen, wo Analysen durchgeführt werden. Danach müssen die Teile dann dorthin transportiert werden, wo sie nach Sorten gesammelt werden. Die Verwendung automatischer Präzisionsanalysatoren führt auch nicht zum Ziel, da sie unter Produktionsbedingungen nicht zuverlässig arbeiten, so verzerrt z.B. Farbe auf bestimmten Details die Messergebnisse. Es wäre nützlich, zumindest für eine Vorsortierung andere Navigatoren anzuwenden, die als industrielle Technologie effektiver sind. Technischer Widerspruch: das Sortieren erfordert eine höhere Produktivität, jedoch lässt sich dabei Handarbeit nicht vermeiden, wegen der negativen Einwirkung störender Faktoren (großes Gewicht und Abmessung der Erzeugnisse, Farbe, die Notwendigkeit der einzelnen Verbringung an die Sortierstelle u.a.). Die Reduktion der Ausgangsbeschreibung hat folgende Ergebnisse (Abb.11.6). Funktion – Wirkung: Sortierung
Plus: Produktivität
Funktion – Wirkung: Sortierung
Plus: Produktivität
a) b) c)
Funktion - Wirkung: Sortierung
Minus: Grad der Automatisation Minus: Kompliziertheit der Messung und Kontrolle Plus: Produktivität Minus: äußere und innere schädliche Faktoren
Abb. 11.6. Alternative binäre Modelle für das Beispiel 65
11 Navigatoren für die Lösung technischer Widersprüche
161
Die Auswahl von Navigatoren aus der A-Matrize führt zu folgenden Gruppen: a) 01, 10, 35, 37; b) 01, 05, 06, 13; cƍ) 01, 11, 18, 21; cƍƍ) 01, 06, 21, 23. Besonders auffällig ist hier die Häufigkeit des Navigators 01 Veränderung des Aggregatzustands. Notieren wir uns die Hauptempfehlungen aus diesem Navigator: 01.a: Übergang zu Pseudozuständen (Pseudoflüssigkeit); 01.b: Veränderung der Konzentration oder der Konsistenz u.a. Als Beispiel Nr. 01.1, das eine mögliche Anwendung des Navigators 1 illustriert, nehmen wir die „Anwendung magnetrheologischer oder elektrorheologischer Flüssigkeiten mit steuerbarem Viskositätsgrad von flüssig bis fest“. Über Verwendungszweck und Zusammensetzung solcher Flüssigkeiten können Sie sich in technischen Nachschlagewerken informieren. Kontrolllösung: die japanische Firma Hitachi verwendete Wannen mit einer magnetrheologischen Flüssigkeit, in die der zu sortierende Schrott untergebracht wurde. Seinen Komponenten „trennen sich selbst“ je nach Metallsorte, da bei einer gesteuerten Veränderung der Dichte der magnetrheologischen Flüssigkeit mit Hilfe eines starken Elektromagneten die Komponenten nach einander streng nach ihrem spezifischen Gewicht aufsteigen! Sie brauchen dann nur noch von der Oberfläche der Flüssigkeit „abgesammelt“ zu werden und zu einer Sammelstelle der entsprechenden Sorte geschickt werden. Kommen wir jetzt zu Kinderspielzeug! Wenn Sie denken, dass das für einen Ingenieur nicht seriös ist, dann denken Sie doch mal darüber nach, wie wichtig das für Ihr Kind oder andere Kinder sein kann, denen Sie eine wunderbare Erfindung schenken können. Bsp. 66. Die Firma Microsoft patentiert ... eine Puppe! Spiele mit räumlichen Objekten sind für die intellektuelle und emotionale Entwicklung von Kindern ein universell einsetzbares Mittel. Wie z.B. Spiele mit Teilen zum Bauen und Konstruieren, mit Puppen usw. Hier aber liegt das Problem: mit Puppen kann man sich schlecht unterhalten, sie können Kindern keine Märchen erzählen, können nicht gemeinsam mit den Kindern interessante und nützliche Fernsehsendungen schauen, können nicht gemeinsam mit Kindern lachen und weinen, sie können nicht ... Sie können gern diese Liste weiterführen, um bald schon die Wörter sie können nicht durch die Wörter sie können zu ersetzen! Zunächst wollen wir aber ein ReInventing eines Patents für eine wunderbare Puppe von Microsoft durchführen. Dabei stoßen wir auf ein unerwartetes Problem auch von Seiten der A-Matrize! Nehmen wir also die Puppe als universelles Mittel für die Entwicklung von Kindern. Nehmen wir an, eine Puppe kann nicht aktiv mit einem Menschen kommunizieren, wenn auch vielleicht in einigen bedingten Situationen. Es ist klar, es gibt keine Informationsrückkopplung. Reduktion: Plus-Faktor 02 Universalität, Adaptierbarkeit gegen den Minus-Faktor 12 Informationsverluste. Oh, das ist Pech, dieses Kästchen in der A-Matrize ist leer! Was soll’s, arbeiten wir mit dem A-Katalog. Besonders interessant ist wieder der uns bereits bekannte Navigator 04 Ersatz der mechanischen Materie mit den Empfehlungen: 04.a: ein mechanisches System durch ein optisches, akustisches oder ... olfaktorisches usw. ersetzen;
162
Klassische Navigatoren des Erfindens des A-Studios
04.b: elektromagnetische Felder für die Wechselwirkung mit dem Objekt verwenden; 04.c: von fixierten Feldern zu zeitlich veränderlichen Feldern übergehen. Eine erfolgreiche Anwendung dieses Navigators finden Sie im Beispiel 46 Schultafel. Hinzufügen kann man auch den Navigator 29 Selbstbedienung: das Objekt muss sich selbst bedienen, wobei es Hilfsoperationen ausführt. Potentiell nützlich scheint auch zu sein, mit Hilfe des Navigators 36 Rückkopplung zu „kommunizieren“, die eben noch nicht effektiv ist oder ganz und gar fehlt bei der Kommunikation zwischen Spielzeug und Kind. Kontrolllösung: Microsoft hat ein System patentiert (Abb. 11.7), zu dem eine Puppe und ein Fernseher gehören! Eine verdeckte Geräuschunterstützung erfolgt über einen Radiosender mit geringer Keine Angst! Du bist Leistung zu einem Empfänger in der Pupja nicht alleine! pe, und die Puppe beginnt „vernünftig“ auf die Geschehnisse im Fernseher zu reagieren. Sie „sagt“ ihre Meinung, diskutiert über Ereignisse und zeigt Emotionen. Alles Geniale ist einfach. Das zeigt auch wieder einmal diese Puppe von Microsoft. Hier entsteht nun natürlich die Frage: was macht man aber in ähnlichen Fällen – Abb. 11.7. System mit der „lebendigen“ in der Matrize gibt es aber 20% leerer Puppe von Microsoft Kästchen? Erstens, es besteht die Möglichkeit mit dem Widerspruch zu arbeiten, um andere Plus- und Minus-Faktoren zu finden, die auch mit den Konflikteigenschaften assoziierbar sind. Zweitens, man kann und muss unmittelbar mit dem A-Katalog arbeiten und dabei die Navigatoren und „Unternavigatoren“ mit dem Ziel untersuchen, Wirkungen und Empfehlungen zu finden, die vom Charakter her den geforderten Wirkungen ähnlich sind. Und das haben wir in diesem Beispiel wie auch in anderen direkt zeigen wollen. Drittens, Sie können auch selbst die leeren Kästchen mit Hinweisen auf Navigatoren ausfüllen, die in Erfindungen vorgekommen sind, die Sie kennen. So hat z.B. die Software PentaCORE (s. Abschn. 21.3) die Funktion, dass der Nutzer den A-Katalog und die A-Matrize mit eigenen Beispielen und Hinweisen weiter gestalten kann. Bsp. 67. Schutz von Fahrzeugen vor unberechtigtem Zugriff. Nehmen wir an, dass eine Person mit kriminellen Absichten in Ihr Auto eindringt und versucht den Motor zu starten. Wie lässt sich dieser Diebstahl verhindern? Konstruieren wir den Widerspruch in folgender Form: der Schutz des Autos muss zuverlässig sein gegen das Eindringen unberechtigter Personen. Wählen wir die Strategie des „Selbstschutzes“ für das Auto, schließen aber dabei nicht aus, dass es auch einen aktiven Schutz gibt, d.h. mit einer Wechselwirkung mit der unberechtigten Person. Wenn wir die unberechtigte Person als „äußeren schädlichen Faktor“ betrachten, und den Selbstschutz des Autos mit dem Begriff „schädliche Faktoren des Objekts selbst“ gleichsetzen, finden wir erneut am Schnittpunkt der Zeile 14 und der Spal-
11 Navigatoren für die Lösung technischer Widersprüche
163
te 13 der A-Matrize keinerlei Hinweise auf Navigatoren. Inzwischen wissen wir, dass dies nicht so schlimm ist. Jetzt aber wenden wir eine andere Strategie bei der Arbeit mit dem A-Katalog an. Wir führen eine Express-Analyse der ersten 10 wirkungsvollsten Navigatoren durch. Und die Navigatoren mit den besten Ergebnissen für das Generieren von Ideen überführen wir dann für die Zukunft in dieses Kästchen. Es ist immer nützlich, den Prozess der Lösung in einer Tabelle festzuhalten (Abb. 11.8). Auslegung des Navigators
Nr.
Navigatoren
Beispiele für Ideen
01
Veränderung des Aggregatzustandes
Veränderung der Eigenschaften der Materialien im operativen Raum
Erhöhen der Temperatur der Sitze auf ein unerträgliches Maß
02
Vorherige Wirkung
Die Anlagen müssen vom günstigsten Ort aus und ohne Verzögerung aktiviert werden
Dieser Navigator kann als Systemanforderung behandelt werden, jedoch muss für einige Anlagen ausgeschlossen werden können, dass es während des Fahrens funktioniert
03
Zerteilen
Teilbare Komponenten verwenden, den Grad der Zerteilung erhöhen
Quellen der Einwirkung trennen, so dass sie schwer zu zerstören sind
04
Ersatz der mechanischen Materie
Nicht-mechanische Wirkungen anwenden
Tränengas oder Gas mit einem unerträglichen Geruch einsetzen (hier gibt es recht große Möglichkeiten, wenn biologische Effekte berücksichtigt werden)
05
Ausgliedern
Nur auf die Hauptfunktion des Autodiebs einwirken, ohne dabei etwas anderes zu beschädigen
Dieser Navigator kann man auch als Systemanforderung betrachten
06
Verwendung Verwendung mechanischer mechanischer Schwingungen mit Schwingungen veränderlicher Frequenz
Verwendung von großen Lautstärken oder Ultraschall
07
Dynamisieren
Einwirkungen müssen bei jedem Arbeitsschritt optimal sein
Die Einwirkungen veränderlich gestalten, um den Ort ihrer Installation schwer auffindbar zu machen
08
Periodische Wirkung
Impulseinwirkungen anwenden
Unerwartete Einwirkungen herstellen, die nicht adaptiert werden können
09
Änderung der Färbung
Die Färbung des Objekts ändern, den Grad der Durchsichtigkeit der Umgebung ändern
Verändern der Durchsichtigkeit der Scheiben, die Luft undurchsichtig machen, eine „nicht abwaschbare“ Färbung verwenden, unsichtbare Markierungen anwenden, um den Täter kenntlich zu machen
10
Kopieren
Verwendung vereinfachter und billiger Kopien von Komponenten, Maßstäbe verändern (Größe)
Verwenden von aufblasbaren Säcken, welche die Bewegung von Körperteilen des Täters behindern
Abb. 11.8. Verkürzte Lösung des Lehrbeispiels – Expresslösung eines Problems
Kontrolllösung: eine Firma in Berlin hat Sicherheitsvorkehrungen auf der Basis von verschiedenen Gasgemischen für den Schutz von Wohnungen und Kraftfahr-
164
Klassische Navigatoren des Erfindens des A-Studios
zeugen entwickelt. So wird in Wohnungen nach einigen Warngeräuschen starkes Tränengas freigesetzt, das unschädlich für Möbel, Wände und Haustechnik ist. Beim Starten eines Kraftfahrzeugs füllt sich der Innenraum mit weißem Rauch, der geruchlos und unschädlich ist. Für eine ausreichend lange Zeit macht der Rauch das Fahren unmöglich und zieht die Aufmerksamkeit von Passanten auf sich, die sofort per Handy die Polizei alarmieren können. Überprüfen wir jetzt die Möglichkeit, andere Plus- und Minus-Faktoren auszuwählen. Wir könnten z.B. versuchen, ein „universelles Mittel“ zu finden, welches den Schutz vor dem „äußeren schädlichen Faktor“ gewährleistet. Plus-Faktor 02 Universalität, Grad der Adaption und Minus-Faktor 13 äußere schädliche Faktoren führen zu einer Gruppe von Navigatoren, mit den von uns bereits verwendeten Navigatoren 01 und 09 (in der Kontrolllösung vorhanden!), sowie zusätzlich als Orientierung zu den Navigatoren 28 Vorher untergelegtes Kissen (in dieser Situation in etwa äquivalent zum Navigator 02) und 31 Verwendung poröser Materialien. Anhand der Ergebnisse unserer Expressanalyse können wir noch ein Kästchen in der A-Matrize ausfüllen (oder sogar zwei an der Diagonale 13 und 14 gelegene Kästchen). Und zwar mit folgenden Navigatoren 01, 04, 06 und 09. Bsp. 68. Windkraftwerke. Eine der umweltverträglichsten und saubersten Energiequellen ist der Wind! Das heißt atmosphärische Ströme. Viele uns bekannte Antriebe dieser Kraftwerke haben die Form von Flugzeugpropellern, die in einer Höhe von einigen Dutzend bis zu 100 oder mehr Metern installiert sind (Abb. 11.9). Jedoch sind die Möglichkeiten eines weiteren Wachstums der Effektivität solcher Anlagen mit horizontaler Achse fast erschöpft. In vielen Ländern hat man begonnen, Windanlagen mit vertikaler Rotationsachse zu konstruieren und zu testen (Abb. 11.10). Es ist leicht zu erkennen, dass sich solche Anlagen gegenüber den Windrichtungen nicht kritisch verhalten. Sie haben auch noch eine Reihe anderer Vorteile.
Abb. 11.9. Windenergiesystem mit horizontaler Drehachse des Antriebs
Abb. 11.10. Windenergiesystem mit vertikaler Drehachse des Antriebs
Es ist bekannt, dass man mit wachsender Höhe der Anlage bis hin zu 6-8 km eine Steigerung der Leistung der Kraftwerke um ein Vielfaches erreichen kann. Jedoch müssen hierbei eine Reihe von Problemen gelöst werden, die im speziellen mit dem Gewicht der Anlage und den Kabeln zu tun haben, die sie mit der Erde verbinden. Auch die Lebensdauer einer solchen Anlage spielt eine kritische Rolle, da in den beweglichen Teilen durch die geringen Temperaturen in großer Höhe verstärkt Reibung auftritt.
11 Navigatoren für die Lösung technischer Widersprüche
165
Und so haben wir es mit einem ganzen Komplex von Problemen zu tun. Das erste Problem ist das Gewicht. Formulieren wir den technischen Widerspruch: die Installation der Anlagen in großer Höhe gewährleisten eine maximale Kapazität der Station. Es muss jedoch das Problem gelöst werden, wie die Anlage auf die entsprechende Höhe gebracht und dort unterhalten werden kann. Der Plus-Faktor 36 Kapazität befindet sich mit dem Minus-Faktor 32 Gewicht des beweglichen Objekts im Konflikt. Zu Lehrzwecken wollen wir hier aus der Gesamtzahl der empfohlenen Navigatoren nur eines kommentieren, den Navigator 32 Gegengewicht: das Gewicht des Objekts durch die Verbindung mit anderen Objekten kompensieren, die eine Hubkraft haben; das Gewicht des Objekts mit einer aerodynamischen Gegenwirkung zur Umgebung kompensieren – in der Kontrolllösung von russischen Spezialisten wird vorgeschlagen, das Windkraftwerk mit Hilfe eines Gasballons anzuheben, der die Form eines „Drachens“ hat (Abb. 11.11). Dabei haben die Kabel auch eine tragende gasgefüllte Hülle, die ihr Gewicht und das Gewicht der Seile kompensiert, welche die gesamte Konstruktion tragen und verhindern, dass es zu ungewollten Verschiebungen oder Höhenveränderungen kommt. Am „Drachen“ befinden sich 3 rotierende Windanlagen. Das Hauptproblem ist die Reibung in den Stützringen „ober-“ und „unterhalb“ des Rotors. Formulieren wir noch einen technischen Widerspruch: Langlebigkeit und automatisches Funktionieren des Systems ohne Bedienung unter Bedingungen schädlicher äußerer Faktoren. Hier ist es möglich, einige alternative Modelle zu konstruieren. Betrachten wir einige von ihnen. Die am ehesten zu assoziierenden Plus-Faktoren sind: Grad der Automation, Zuverlässigkeit, BenutzungsfreundlichAbb. 11.11. Windenergiesystem keit, Funktionszeit des beweglichen Objekts, „Luftdrache“ Stabilität des Bestands des Objekts. Die passendsten Minus-Faktoren sind: Kompliziertheit der Anlage, äußere schädliche Faktoren, Länge des beweglichen Objekts (entlang der Bewegungsrichtung der Rotoren in den Stützen), Stoffverluste (Verschleiß), Festigkeit, Temperatur, Energieverluste (für die Überwindung der Reibung). Sie sollten erneut beachten, dass wir immer noch beim Re-Inventing sind und die Kontrolllösung schon kennen. Stellen Sie sich aber einmal vor, auf welchen Arbeitsaufwand Sie stoßen würden, wenn Sie diese gesamte Analyse aller Paare der Konflikteigenschaften vornehmen müssten. Es würden 35 Paare von Widerspruchsmodellen entstehen! Darin verbirgt sich aber auch eine Vereinfachung der Lösung, weil ständig wiederholt die gleichen Navigatoren auftauchen. Man sollte versuchen, eben diese erstrangig anzuwenden. Für die Arbeit mit solchen „Widerspruchssystemen“ ist die CICO-Methode bestimmt, die im folgenden Abschnitt 11.4. vorgestellt wird. An dieser Stelle wollen wir uns der verkürzten Analyse des Lösungsprozesses auf der Basis eines der physikalisch-technischen Modelle bedienen: Plus-Faktor
166
Klassische Navigatoren des Erfindens des A-Studios
23 Funktionszeit des beweglichen Objekts gegen den Minus-Faktor 13 Äußere schädliche Faktoren. Betrachten wir jetzt die Gruppe von Navigatoren und ihre Interpretation unter Berücksichtigung der Besonderheiten von Ressourcen bei der Arbeit des Systems: 04 Ersatz der mechanischen Materie – Anwendung des Prinzips einer magnetischen Aufhängung, mit relativ geringem Verbrauch an Energie, die von der Anlage produziert wird; 07 Dynamisieren – ein Teil der Energie muss für eine ununterbrochene Positionsveränderung der einzelnen Rotorschaufeln aufgewendet werden, um die Funktionsweise des gesamten Systems zu optimieren, um die Bremskräfte und Belastung der Stützen zu verringern; 21 Schaden in Nutzen umwandeln – die hohe Geschwindigkeit des Luftstroms in großer Höhe kann in Verbindung mit den Minustemperaturen genutzt werden, um Schlupfpaare auf einem Eis- und Luftkissen zu erzeugen; 38 Gleichartigkeit – die Oberflächen, die in Kontakt zu den Schlupfflächen kommen können, müssen aus ein und demselben Material hergestellt werden. Die Kontrolllösung der russischen Spezialisten: ein linearer Schrittantrieb (für den Startantrieb des Rotors), der sich für die Arbeit der Anlage in eine Stütze in Form einer magnetischen Aufhängung verwandelt. Bsp. 69. Rauschnetz. In den Meeren sterben jährlich Tausende von Delphinen, die sich in Fischernetze verfangen. Sie steuern auf die Netze zu und versuchen Fische, die in das Netz geraten sind zu fangen und werden dabei selbst zu Opfern des Netzes. Wie kann die Gefahr der Netze für Delphine verringert werden? Man kann zwei Versionen eines funktional idealen Modells formulieren: - die Delphine selbst schwimmen nicht an das Netz; - das Netz selbst verscheucht die Delphine. Physikalisch-biologische Ressource und Widerspruch: die Delphine haben ein Organ zur akustischen Ortung, das Netz aber bleibt für dieses Organ „unsichtbar“. Die Auswahl der Standardfaktoren für dieses Beispiel ist nicht gerade eine triviale Aufgabe. Direkte Analogien für die Beschreibung akustischer Signale oder Parameter sind nicht vorhanden. Es gibt auch keine passende Beschreibung für die negativen Erscheinungen, die mit der schwachen Reflektion der Ortungssignale vom Netz in Verbindung stehen. In solchen Fällen kann man auf metaphorische Analogien ausweichen, z.B. das Geräusch mit Licht- oder Wärmefeldern zu vergleichen. Dann kann als Plus-Faktor z.B. der Zugang 35 Stärke der Beleuchtung gewählt werden. Als Minus-Faktor, der mit der Konstruktion des Netzes verbunden ist, wählen wir den Zugang 10 Benutzungsfreundlichkeit. In der neuen TRIZFormulierung kann man das ideale funktionale Modell mit großer Sicherheit folgendermaßen fixieren: eine ɏ-Ressource, die das Netz absolut nicht komplizierter macht, gewährleistet eine gute „Sichtbarkeit“ des Netzes für die akustischen Ortungsorgane des Delphins. Betrachten wir die Navigatoren aus der A-Matrize: 04.a: das mechanische Ausgangssystem mit schwachen akustischen Reflektionseigenschaften durch ein neues System ersetzen, das über gute Reflektionseigenschaften verfügt; 04.b: von nicht strukturierten Feldern zu strukturierten übergehen;
11 Navigatoren für die Lösung technischer Widersprüche
167
10.b: ein Objekt durch seine akustischen Kopien ersetzen (beachten Sie den Ersatz des Terminus „optische“!). Der Navigator 08 lässt sich derzeit noch nicht interpretieren. Jedoch reichen die Fakten aus, um auf die Idee zu kommen, ein Netz zu entwickeln, in das spezielle Maschen integriert werden, welche die Form von sphärischen und parabolischen Plastikreflektoren haben. Diese Elemente reflektieren das Ortungssignal der Delphine bedeutend besser. So sieht die Kontrolllösung des deutschen Zoologen Sven Koschinski aus. Die Überprüfung im Experiment zeigte, dass die Sichtbarkeit des Netzes sich auf 50-60% erhöht hat, was zwar nicht schlecht ist, aber noch lange nicht ausreichend. Jedoch wurde jetzt das Schlüsselprinzip gefunden, mit dessen Hilfe anhand der TRIZ-Instrumentarien das System verbessert werden kann. Um die Beschreibung zu verkürzen, stellen wir den technischen Widerspruch gleich in reduzierter Form dar: Plus-Faktor 04 Zuverlässigkeit und Minus-Faktor 07 Kompliziertheit der Konstruktion. Das ergibt folgende Gruppe von Navigatoren 08, 10, 18 und 31. Davon lassen sich folgende Navigatoren gut interpretieren (in der Reihenfolge ihrer Wichtigkeit): 10 Kopieren: dieser Navigator taucht mehrfach auf, was dieser Situation auch entspricht, nur so lässt sich ein Signal erzeugen, das die Delphine vor Gefahr warnt; 18 Vermittler: ein Zwischenobjekt verwenden, welches eine Aktion weiterleitet oder überträgt – auf das Netz werden zusätzliche aktive akustische Strahler montiert, die eine Kapazität von 115 Dezibel, eine Frequenz von 2,9 Kilohertz und Obertöne bis zu 90 Kilohertz haben. Diese Töne wurden so ausgewählt, dass sie die Delphine abschrecken, jedoch nicht die Fangfische; 08 Periodische Wirkung: von permanenten Wirkungen zu periodischen übergehen – der „Schrei“, welcher dem der Delphine ähnelt wird 70-mal pro Minute produziert; 40 Ununterbrochene nützliche Funktion: eine Arbeit ununterbrochen mit voller Belastung ausführen, – die Anzahl der Strahler auf der Oberfläche des Netzes (das eine Länge von mehreren Hundert Metern und mehr hat) muss ausreichend groß sein. Und erneut musste die Idee in der Praxis verifiziert werden. Die Verifikation zeigte eine Effektivität von 90%. Es bleiben aber noch 10%! Jetzt könnte das Ziel sein, eine Gewöhnung (Adaption) der Delphine an den abschreckenden Ton auszuschließen. Der reduzierte technische Widerspruch: Plus-Faktor 02 (Universalität) Adaption gegen den Minus-Faktor 07 Kompliziertheit der Konstruktion. Die Schlüsselnavigatoren sind 04 Ersatz der mechanischen Materie (Übergang von fixierten Feldern zu zeitlich veränderlichen!) und 07 Dynamisieren (die Charakteristika des Objekts müssen so verändert werden, dass sie bei jedem Arbeitsschritt optimal ablaufen). Eine gemeinsame Interpretation der Navigatoren führt eindeutig dazu, dass die Parameter der „Schreie“ ständig nach dem Zufallsprinzip geändert werden müssen. Dieses Beispiel zeigt die Entwicklung der Ausgangsidee auf der Basis ihrer Überprüfung in der Praxis und der Formulierung neuer und immer neuerer Modelle in Abhängigkeit von Testergebnissen. Da wir ja hier selbst keine neuen Ideen generiert haben, sondern nur ein TRIZ Re-Inventing durchgeführt haben, kann
168
Klassische Navigatoren des Erfindens des A-Studios
man sagen, dass dieses Beispiel ein dynamisches Re-Inventing demonstriert. Anzumerken sei, dass sich die praktische Vervollkommnung von Erzeugnissen und Produkten mit Hilfe der TRIZ-Instrumente nach analogen Abläufen vollzieht. Das letzte Beispiel dieses Abschnitts demonstriert nicht die Dynamik, sondern die Statik des Re-Inventings eines Objekts. Als Beispiel haben wir es hier nicht mit einem „industriellen“ Objekt zu tun, wie z.B. eine Werkzeugmaschine oder ein Flugzeug (obwohl wir auch noch damit zu tun haben werden!), dennoch können wir davon ausgehen, dass dieses Beispiel für die Leser leicht verständlich sein wird. Bsp. 70. Raclette? Warum auch nicht?! Betrachten wir dieses Beispiel eines Geräts für die Speisenzubereitung von verschiedenen Seiten, u.a. auch von „nichttechnischen“ Seiten, wie von der Seite, die den Benutzer betrifft (Abb. 11.12). Uns geht es bei diesem Objekt hauptsächlich darum, so viele kreative Ideen (Verfahren) wie möglich zu finden. Unsere Analyse finden Sie in der Tabelle (Abb. 11.13). Und so haben wir es mit 25 Navigatoren in einem relativ einfachen Abb. 11.12. Raclette Objekt zu tun! Nr.
Navigatoren
Interpretation
1
03 Zerteilen
Eine große Pfanne ist in 6 oder 8 kleine Pfannen aufgeteilt.
2
35 Verbinden
Die kleinen Pfannen werden in einer einheitlichen Konstruktion (Verbinden gleichartiger Objekte im Raum) und gleichzeitig (Verbinden gleichartiger Operationen in der Zeit) erhitzt.
3
05 Ausgliedern
Das Raclette wird aus der Küche ausgegliedert (wie aus einem System) und in das Esszimmer gebracht (in ein anderes System); die kleinen Pfannen werden aus dem Raclette (als System) auf den Tisch „ausgegliedert“.
4
12 Lokale Eigenschaft
Das Ganze und seine Teile haben verschiedene Funktionen, und jedes Teil hat die Bedingungen, die am meisten seiner Funktion entsprechen.
5
20 Universalität
Multifunktionalität, es werden z.B. gemeinsam mit den Speisen in den Pfannen von oben Beilagen zubereitet; das Vorhandensein eines Grillrostes.
6
34 Matrjoschka
Die kleinen Pfannen werden kompakt in das Raclette gestellt.
7
02 Vorherige Wirkung
Das Raclette wird im Voraus auf den Tisch gestellt, wo sich bereits vorher zubereitete Komponenten für die Gerichte befinden.
8
37 Äquipotentialität
Alles befindet sich in der Nähe und es bedarf keiner großen Anstrengungen für den Transport, da sich praktisch alles in der Nähe des Tisches befindet.
9
11 Entgegengesetzt
Nicht der Mensch geht zum „Herd“, sondern der „Herd“ kommt zum Menschen und befindet sich in unmittelbarer Nähe zum Tisch: der „Herd“ wurde beweglich!
10
22 Sphäroidalität
Die sphärische und elliptische Form der Raclettes, und die Anordnung der Pfannen im Kreis als Segmente des Ganzen sind für den Nutzer sehr bequem.
Abb. 11.13 (Anfang). Erkennung von Navigatoren anhand des Produkts (Raclette)
11 Navigatoren für die Lösung technischer Widersprüche
169
11
07 Dynamisieren
Der „transportable“ Herd stellt einen asynchronen dynamischen Prozess dar, bei dem ganz individuelle Speisen in den entsprechenden Pfannen zubereitet werden können; Dynamisieren der Kommunikation der Beteiligten am Tisch bei einem interessanten vereinenden „technologischen Prozess“.
12
16 Partielle oder überschüssige Wirkung
Es ist schwer beim Kochen jeden Geschmack zu treffen, jedoch ist es leicht, wenn jeder nach seinem Geschmack sich sein Essen zubereitet.
13
19 Übergang in eine andere Dimension
Mehrstufige Komposition der Arbeitsoberfläche, Wärmeeinsparung.
14
09 Veränderung der Färbung
Durchsichtige Deckel; unterschiedliche Färbung der Pfannen für die individuelle Unterscheidung.
15
08 Periodische Wirkung
Die Gerichte werden in unterschiedlichen Zeitintervallen je nach Wunsch zubereitet.
16
40 Ununterbrochene Alle Teile arbeiten unter voller Belastung, die für jedes Teil im einzelnen als auch für das ganze System optimal ist. nützliche Funktion
17
21 Schaden in Nutzen umwandeln
„Gerüche“ der Küche werden in „Wohldüfte“ schmackhafter Gerichte umgewandelt.
18
36 Rückkopplung
Im System lässt sich leicht die Qualität und Quantität optimieren, da jeder nur soviel verbraucht, wieviel er braucht, der eine mehr, und der andere weniger.
19
18 Vermittler
Das Raclette funktioniert als zentraler „Vermittler-Moderator“ bei der Kommunikation!
20
29 Selbstbedienung
Alle bedienen sich selbst!
21
10 Kopieren
Psychologie der Kommunikation, sie verbindet alle durch Nachahmung im Verhalten; aus technischer Sicht – Kopie eines Herds auf dem Tisch, jedoch einfacher, kleiner, sparsamer und schöner.
22
38 Gleichartigkeit
Alle Pfannen sind gleich in Form und Material (können sich aber durch farbliche Markierungen unterscheiden).
23
15 Verwerfen und Regeneration von Teilen
Verbrauchte Komponenten der Gerichte können nachgereicht werden, je nach Bedarf.
24
01 Veränderung des Aggregatzustandes
Die Gerichte erfahren die notwendigen Veränderungen ihres „Aggregatzustandes“ ihrer Komponenten; flexible Veränderung der Zubereitungsarten
25
17 Verwendung von Verbundstoffen
Flexible Veränderungen der Zusammensetzung der Gerichte
Abb. 11.13 (Ende).
Das Ziel dieses Beispiels war es, die breiten Möglichkeiten einer korrekten kreativen Interpretation der Navigatoren aufzuzeigen, ungeachtet ihrer äußerst eingeschränkten und oft sogar ärmlichen Beschreibung. Das soll zunächst alles sein, was die Betrachtung von Anwendungen der ANavigatoren betrifft. Noch einmal möchte ich die Worte Genrich Altschullers erwähnen: es gibt keine magische Formel, aber es gibt Navigatoren, die in den meisten Fällen ausreichend sind! Und so wie auch die TRIZ kein Dogma ist, machen Sie auch weiter mit Ihren Improvisationen und Spielen der Phantasie!
170
Klassische Navigatoren des Erfindens des A-Studios
11.4 Integration alternativer Widersprüche – die CICO- Methode Bei der Benutzung der A-Matrize und des A-Katalogs der Navigatoren (Abschn. 11.2 und 11.3) könnte die Frage entstehen: kann es denn sein, dass die Grundlage einer jeden konkreten Erfindung nur ein bestimmter Navigator bildet? Der Verfasser der TRIZ beantwortet diese Frage folgendermaßen. Im Periodensystem von Mendelejew gibt es etwas mehr als 100 Elemente. Jedoch ist die reale Welt unermeßlich reicher, da die chemischen Elemente ja miteinander reagieren und dabei komplizierte Stoffe und ganze Klassen immer komplizierterer Stoffe bilden. Die Untersuchung solcher künstlich zusammengestellter Kombinationen von Navigatoren stellt eine äußerst schwierige Aufgabe dar. Da man eben aus den 40 Navigatoren des Katalogs 780 Paare, 9880 Dreier-, mehr als 90000 Viererkombinationen usw. zusammenstellen kann. Das ist das Komplizierte an der Kombinatorik von „Zusammensetzungen“. Es ist auch nicht einfacher reale Erfindungen zu untersuchen, obwohl mit deren Hilfe es leichter ist, den realen Nutzen einer konkret angewendeten Verbindung von Navigatoren zu erkennen. Dennoch verwenden erfahrene Spezialisten bei der Vorbehandlung eines Problems und für die Express-Analyse manchmal den A-Katalog, ohne die A-Matrize zu berücksichtigen. Und das folgendermaßen: 1. den ganzen Katalog durchsehen und einige perspektivreiche Navigatoren auswählen; 2. Kombinationen von je zwei, drei oder mehr (wenn möglich) Navigatoren auswählen. Eine effektivere Methode ist die gerichtete Gruppierung von Verfahren auf der Basis einer Zusammenstellung mehrerer systemgebundener technischer Widersprüche oder durch Auswahl mehrerer passender Faktoren für den Eingang in die A-Matrize für den ausgewählten TW. Die CICO-Methode (Cluster In Cluster Out): 1. den TW formulieren (und darauffolgend, bei größerer Erfahrung, – mehrere TW); 2. für jede Variante mehrere synonyme Eingänge auswählen (das ist die eigentliche Cluster In-Prozedur, d.h. die Aufstellung einer ganzen Traube von synonymen Eingängen sowohl für den Plusfaktor als auch für den Minusfaktor eines jeden TWs); 3. alle empfohlenen Navigatoren notieren; 4. eine Liste aufstellen nach Wertigkeiten der Navigatoren geordnet, wo an der ersten Stelle der am häufigsten empfohlene Navigator steht, an zweiter Stelle der nächst häufiger usw. (und das ist die eigentliche Prozedur Cluster Out, wobei wir am Schluß eine Art Traube von Navigatoren erhalten, wo oben in der Konsequenz mehrere Exemplare häufig anzutreffender Navigatoren stehen, und weiter unten – weniger häufige usw.); 5. eine Analyse der Navigatoren nach und nach durchführen, bei der ersten beginnend.
11 Navigatoren für die Lösung technischer Widersprüche
171
Betrachten wir ein Beispiel zu einem „Retro-Thema“. Bsp. 71. „Deckel“ über einem Schornstein. Damit in Schornsteine von oben kein Schnee und Regen fällt, werden auf die Schornsteine verschiedene Schutzeinrichtungen, Dächer oder Körbe, aufgesetzt (Nennen wir Sie „Abdeckungen“.). Diagnostik. Das Problem besteht darin, dass die meisten Abdeckungen, die Form haben wie in Abb. 11.14. Sie schützen die Schornsteine nur sehr unzulänglich vor Regen, Schnee und besonders vor starkem Wind. Kompliziertere Formen von Abdeckungen verengen meist den Querschnitt des Schornsteins am Ausgang und erschweren den Austritt des Rauchs. Abb. 11.14. Abdeckung über einem Schornstein
Reduktion. Wir haben es hier mindestens mit einem zweifachen physikalischen Widerspruch zu tun: die Abdeckung muss breit sein und sich nahe am Ausgang des Schornsteins befinden, um einen sicheren Schutz des Schornsteins vor Regen und Schnee, bei Wind aus jeder beliebigen Richtung, zu gewährleisten, und die Abdeckung muss schmal sein, damit der Wind sie nicht zerstören kann und sie muss weit weg vom Ausgang des Schornsteins sein, damit der Rauch ungehindert aus dem Schornstein abziehen kann. Die operative Zone umfasst den Ausgang des Schornsteins (Rezeptor) und die Abdeckung (Induktor). Es ist klar - wir wollen hier nur die Abdeckung verändern. Eine offensichtliche Idee gibt es nicht. Deshalb kann man mehrere FIM formulieren. Macro-FIM: eine X-Ressource, die keine unzulässigen negativen Effekte hervorruft, dabei aber zusammen mit anderen vorhandenen Ressourcen gewährleistet, dass der Ausgang sicher vor Niederschlägen bei beliebiger Windrichtung geschützt ist, und der Rauch bestmöglich abziehen kann. Maxi-FIM: die operative Zone gewährleistet selbst den Schutz des Ausgangs am Schornstein und den freien Austritt des Rauchs. Die Analyse der fundamentalen Transformationen liefert auch auf den ersten Blick keine offensichtliche Idee, obwohl man sagen kann, dass es hier scheint, dass wohl räumliche, strukturelle und energetische Ressourcen „an der Lösung recht interessiert sind“. Man kann davon ausgehen, dass die Form und die Struktur der Abdeckung verändert werden sollte – eine kompliziertere Konstruktion mit einigen funktional-spezialisierten Teilen wäre denkbar. Es lässt sich auch nicht ausschließen, dass eine Energiequelle benötigt wird, um die Abdeckung in Funktion zu setzen. Hier können Sie mit Fug und Recht die Frage stellen: was ist aber mit der Anforderung „verkompliziert das System absolut nicht“?! Den ersten Teil der Antwort betrachten wir am Ende der Lösung – es kann z.B. passieren, dass, was den Materialaufwand und die Kosten betrifft, die neue Konstruktion die alte weitaus übersteigt, was ja dann absolut nicht den Anforderungen entspricht. Den
172
Klassische Navigatoren des Erfindens des A-Studios
zweiten Teil der Antwort gab bereits Albert Einstein63: es muss „einfach sein, aber nicht einfacher als das Einfache!“. Das heißt, wenn eine bestimmte Konstruktion nicht die gestellten Anforderungen erfüllt, haben ihre Einfachheit oder ihre geringen Kosten absolut keinen Sinn. Versuchen wir einen technischen Widerspruch zu konstruieren, um uns ein paar Schritte von der starren Formulierung des physikalischen Widerspruchs zu entfernen – nicht aber vom FIM! Im Gegenteil, wir müssen und wollen uns genau an das FIM halten! Stellen wir das IER-1 in allgemeiner Form, als Beseitigung der „Schädlichen Faktoren, die auf das Objekt wirken“ dar und verwenden dieses IER als PlusFaktor Nr. 13 für den entsprechenden Zugang zur A-Matrize. Auf der Zeile 13 wählen wir die entsprechenden Minus-Faktoren aus (s. Tabelle in der Abb. 11.15). Pos.
Nummer des Minus-Faktors und seine Erklärung
Navigatoren aus der A-Matrize
1
21
Form – wird voraussichtlich komplizierter
21, 03, 12, 01
2
10
Benutzungsfreundlichkeit – verschlechtert sich, wenn etwas ein- bzw. abgeschaltet werden muss u.ä.
05, 29, 04, 23
3
07
Kompliziertheit der Konstruktion – wird größer, wenn gewisse Steuereinheiten und Antriebe installiert werden müssen
21, 08, 14, 17
11
Insgesamt unterschiedliche Navigatoren: Abb. 11.15. Cluster In für den ersten Plus-Faktor „Schädliche Faktoren, die auf das Objekt wirken“
Stellen wir das IER-2 als „Grad der Automation“ dar und verwenden dieses IER als Plus-Faktor Nr. 03 für den entsprechenden Zugang in die A-Matrize. Auf der 03. Zeile finden wir zumindest einen Minus-Faktor (s. Tabelle in Abb. 11.16). Pos. 1
Nummer des Minus-Faktors und seine Erklärung 07
Navigatoren aus der A-Matrize
Kompliziertheit der Konstruktion – kann sich erhöhen, was nicht wünschenswert wäre! Insgesamt unterschiedliche Navigatoren:
07, 18, 02 3
Abb. 11. 16. Cluster In für den zweiten Plus-Faktor „Grad der Automation“
Angenommen die Lösung des Problems wäre das IER-3 in Art einer idealen „Form“. Dann wählen wir auf der 21. Zeile der A-Matrize die wahrscheinlichen Minus-Faktoren (s. Tabelle in Abb. 11.17).
63
Albert Einstein (1879-1955) – führender Physiker der XX. Jahrhunderts, Begründer der allgemeinen und speziellen Relativitätstheorie
11 Navigatoren für die Lösung technischer Widersprüche Pos.
Nummer des Minus-Faktors und seine Erklärung
1
10
Benutzungsfreundlichkeit – kann sich verschlechtern, wenn bestimmte Dinge geöffnet oder geschlossen werden müssen u.ä.
2
07
Kompliziertheit der Konstruktion – kann steigen!
3
08
Kompliziertheit bei Kontrolle und Messungen – es muss nichts gemessen und kontrolliert werden! Alles muss selbst ordentlich funktionieren!
173
Navigatoren aus der A-Matrize 09, 07, 10
16, 14, 03, 04 07, 11, 23
Insgesamt unterschiedliche Navigatoren:
9
Abb. 11.17. Cluster In für den dritten Plus-Faktor „Form“
Transformation. Bei der Verbindung 17 unterschiedlicher Navigatoren aus dieser Tabelle wurde einen Navigator (Nr. 07) gefunden, das 3-mal auftaucht, fünf Navigatoren, die 2-mal und 11 Navigatoren, die einmal auftauchen. In der Tabelle Abb. 11.18 finden Sie die Lösungsschritte, und in der Abb. 11.19 – das Resultat des durchgeführten Re-Inventings des Problems, das ich zum ersten Mal in Deutschland gesehen habe. Ich habe ihr den Namen „Helm“ gegeben, wegen der Ähnlichkeit in der Form mit einem Ritterhelm, hierbei können die Niederschläge auch bei fehlendem Wind nicht in den Schornstein eindringen. Später dann habe ich diese Lösung auch in Finnland gesehen. Nr. / Häufigkeit
Navigatoren
Interpretation des Navigators
1
3
07 Dynamisieren
Eindeutige Interpretation: die Abdeckung muss beweglich werden!
2
2
03 Zerteilen
Die Abdeckung muss in bestimmte Teile zerteilt werden, die selbstständige Funktionen haben, z.B. die von uns gewünschten Funktionseigenschaften vom Typ: „Schutz“ – vor Regen und Schnee, „Beweglichkeit“ – um besser schützen zu können u.ä.
3
2
21 Schaden in Nutzen umwandeln
Am schwierigsten ist natürlich die Situation, wenn starker Wind herrscht! Jedoch ist starker Wind auch eine kostenlose „Energiequelle“! Die Schlüsselidee ist fast fertig – der Wind muss die Abdeckung in Bewegung bringen!
4
2
04 Ersatz der mechanischen Materie
Das Wesen dieses Navigators besteht in der Anwendung „besser steuerbarer“ Felder. Hier: der Wind ändert seine Richtung – er soll ja die Abdeckung in die bestmögliche Position bringen, um den Schutz vor Niederschlägen zu gewährleisten! Wie kann aber dann die Position der Abdeckung fixiert werden? Stop! Man braucht eine Art Wetterhahn! Weil eben ein Wetterhahn wie stark auch immer der Wind ist, stets stabil in einer bestimmten Richtung steht! Und ein Wetterhahn muss an die Abdeckung angebaut werden!
Abb. 11.18 (Anfang). Cluster Out: Vereinigung der Verfahren aus der Tabelle Cluster In
174
Klassische Navigatoren des Erfindens des A-Studios
5 2 14 Verwendung Was wollen wir mehr! Das allerbeste wäre natürlich „eine pneum. und hydr. automatische Maschine mit pneumatischer Energiequelle und Konstruktionen pneumo-mechanischem Antrieb“!!! 6 2 23 Verwendung inerter Medien
7 1
Kommentar: wenn man über diesen Navigator weiter nachdenkt kommt man auf den Gedanken über einen Supereffekt bei der „Wetterhahn-Abdeckung“! Beim Nachdenken über den Begriff „Vakuum“ wurde klar, dass bei starkem Wind unmittelbar unter der Abdeckung eine Zone der verdünnten Luft entsteht, was den Austritt des Rauchs aus dem Schornstein erleichtert! Bei anderen Abdeckungen erschwert im Gegensatz starker Wind den Austritt des Rauchs, weil er aufgrund des Erhöhten Luftdrucks am Ausgang des Schornsteins „Staus“ verursacht. 12, 02, 11, 16, 08, 18, 29, 10, 09, 01, 17
Abb. 11.18 (Ende). Cluster Out: Vereinigung der Navigatoren aus der Tabelle Cluster In
Verifikation. Wir haben es mit einer absolut idealen Lösung zu tun: die Abdeckung lässt den Rauch selbst auf bestmögliche Weise austreten und schützt den Schornstein vor Niederschlägen bei beliebiger Windrichtung! In dieser Lösung (Abb. 11.19), die von einem unbekannten Meister erfunden wurde, lassen sich gleich einige praktische Ideen entdecken. Und genau solche Lösungsideen für Aufgaben mit starken Widersprüchen wurden in der TRIZ in Form von „Verfahren“ zusammengefasst. Wir finden hier Verfahren wie „Dynamisierung“ – der „Helm“ wurde beweglich gemacht, „lokale Eigenschaft“ – der Schutz erfolgt genau dort, wo es wichtig ist, „Asymmetrie“ – der Wetterhahn hat einen angehobenen Schwanz, auf den der Wind einwirkt, „Matrjoschka“ – die Achse, um die sich der „Helm“ dreht, befindet sich im Inneren des Schornsteins „Schädliches in Nützliches umwandeln“ und „Selbstorganisation“ – je stärker der Wind desto sicherer neigt sich der „Helm“ in die günstigste Richtung. Die neue Konstruktion ist nicht wirklich komplizierter als die alte, jedoch verfügt sie über große Vorzüge!
Abb. 11.19. „Helm“ für den Schutz des Schornsteins vor Regen und Schnee
In einer guten Lösung wurden objektiv gesehen immer mehrere kreative Ideen realisiert. Und deshalb ist es so wichtig, mit der „Re-Inventig“-Methode bereits gemachte Erfindungen zu untersuchen, um die vom Willen des Erfinders unabhängigen Ideen für die Transformation vom „War“, d.h. „vom Bestehenden“, zu dem was „wurde“, d.h. „zum Entstehenden“ verfolgen zu können!
12 Modelle für die Lösung physikalischer Widersprüche
175
Und so können wir sagen, dass bestimmte Methoden uns irgendwie vorschlagen, die Lösung der Aufgabe „in einem Zug“ zu suchen, wie bei einem Miniaturschachspiel, wo nur ein Zug möglich ist. Jedoch lassen sich komplizierte Aufgaben oft nur mindestens in 3, 4 oder gar 5 Zügen lösen, wie auch nur ganze glänzende Partien! Und deshalb orientieren die „Trauben“ der Methoden auf die Ausarbeitung von Kombinationen mit verschiedenen Zügen; um so mehr, da man bei realen erfinderischen Aufgaben ja vorher nicht weiß, in wie viel Zügen sie gelöst werden können. Weiterhin sehen wir, dass bei einer gemeinsamen Betrachtung der Methoden auf gewisse Art sie einander ihre Möglichkeiten verstärken. Es entsteht ein Super-Effekt – die Synergie der Methoden! Die „gewichtete Traube“ von Methoden beschreibt und sagt auf bestimmte Art und Weise die Gestalt der künftigen Lösung voraus und verbindet dabei das ideale Endresultat mit dem neuen noch zu suchenden Wirkungsprinzip und der künftigen Konstruktion.
12 Modelle für die Lösung physikalischer Widersprüche 12.1 Integration physikalischer Widersprüche Die Schlüsselidee der Methode ist analog der Integration technischer Widersprüche. Es geht darum, unvereinbare Anforderungen, ausgehend von einer unmittelbaren Beschreibung der Widerspruchsmodelle zu vereinen. Jedoch ist das bei einem physikalischen Widerspruch schwieriger, da bei diesem Widerspruch die Unvereinbarkeit unvereinbarer und akuter scheint. Die Beschreibung eines physikalischen Widerspruchs ist oft nicht-funktional, d.h. er beinhaltet keine inversen Wirkungsverfahren, sondern inverse und unvereinbare Zustandseigenschaften. Deshalb bestehen zwischen der Methode der Integration physikalischer Widersprüche von 1989 und der Methode der Integration inverser technischer Widersprüche vom Autor dieses Lehrbuchs deutliche Unterschiede. Die Methode der Integration physikalischer Widersprüche erfordert eine eindeutige Lösung des Widerspruchs bei der dominierenden Ressource. Dafür bedarf es kreativer und intuitiver Anstrengungen und fachlicher Kenntnisse der physikalisch-technischen Effekte und Konstruktionen, die potentiell für das Erreichen einer solchen Lösung geeignet sind. Die Schritte der Methode kann man folgendermaßen formulieren: - einen physikalischen Widerspruch mit zwei unvereinbaren Anforderungen (Faktoren) formulieren; - das Ausgangsmodell auf eine konstruktive Form reduzieren, in der beide Faktoren als Ziel – bzw. als positive Faktoren dargestellt sind; - das konstruktive Modell in zwei Modelle unterteilen – für den einen und den andern Faktor; unabhängige alternative technische Lösungen für jeden der Faktoren finden; - ein integriertes Modell für jeden der Faktoren auf der Grundlage einer Integration unabhängiger alternativer technischer Lösungen konstruieren, in dem der
176
Klassische Navigatoren des Erfindens des A-Studios
physikalische Widerspruch fehlt und beide vorher unvereinbaren Eigenschaften erreicht werden. Anmerkung 1: man muss sofort versuchen, den physikalischen Widerspruch in einer konstruktiven Form zu formulieren, so wie es auch in der klassischen TRIZ empfohlen wird, dabei kann der erste Schritt der Methode ausgelassen werden. Anmerkung 2: das Aufteilen des Widerspruchsmodells in zwei Modelle ist nur ein Verfahren für die Beschreibung des Generierungsprozesses einer Lösungsidee, da bei gewisser Erfahrung unmittelbar anhand eines konstruktiven Modells eine integrierte Lösung gefunden werden kann, dabei kann der dritte Schritt der Methode ausgelassen werden. Auch hier gibt es keine magische Formel, sondern es geht darum, dass die Konflikteigenschaften in der Zeit, im Raum, in der Struktur oder im Stoff (Energie) aufgeteilt werden müssen, s. folgender Abschnitt 12.2 Katalog fundamentaler Transformationen. Jedoch ermöglicht die Integration aufgeteilter Modelle desselben physikalischen Ausgangswiderspruchs, psychologische Trägheit in Bezug auf das Problem zu überwinden. Sie kann eine Brücke für die Entwicklung einer Lösungsidee bauen, in der bis dahin „unvereinbare“ Eigenschaften bestens zusammen existieren und arbeiten, um die nützliche Hauptfunktion des Systems zu realisieren. Für die Integration aufgeteilter Modelle wird es im Weiteren nützlich auch den Abschnitt 15.3 Integration alternativer Systeme zu studieren. Betrachten wir Beispiele in gewohnter Weise – von „einfachen“ zu „komplizierteren“. Bsp. 72. Erhitzung von Siliziumplatten (Lösung auf der Grundlage der Integration physikalischer Widersprüche). Im Beispiel 60 haben wir recht leicht die inversen Prozesse der Erhitzung des Siliziumplatten miteinander verbunden. Das lief ab, indem wir inverse Wirkungen zum Erhitzen der Platten im Zentrum und an den Rändern verbunden hatten. Bei der Integration unvereinbarer physikalischer Modelle ist das etwas schwieriger, da eine Transformation gefunden und realisiert werden muss, die nicht offensichtlich ist, sich nicht an der Oberfläche befindet, – Lösung des Konflikts im Raum und in der Struktur. Deshalb werden zunächst aus dem physikalischen Ausgangswiderspruch die nach dem Widerspruch geforderten Zustände extrahiert. Danach wird bedingt die Möglichkeit ihrer unabhängigen technischen Realisierung festgestellt, wonach die Integration alternativer technischer Lösungen in einer Konstruktion möglich ist, z.B. durch die Veränderung der Struktur des Induktors für die Realisierung der geforderten Eigenschaften in sich nicht überschneidenden Zonen im Raum. Führen wir nach und nach die Schritte der Methode der Integration physikalischer Widersprüche durch: - wir konstruieren das Ausgangsmodell für den physikalischen Widerspruch: das Wärmefeld muss stark sein, um die Platten an den Rändern zu erhitzen, und es soll nicht stark sein, um die Platte im Zentrum nicht zu überhitzen; - reduzieren wir das Ausgangsmodell auf eine konstruktive Form mit positiven unvereinbaren Eigenschaften: das Wärmefeld muss stark sein, um die Platten an den Rändern zu erhitzen, und es soll schwach sein, um die Platte im Zentrum zu erhitzen; - die technische Lösung für jedes der aufgeteilten Modelle: für ein starkes Wärmefeld im Induktor muss die Heizspirale eine hohe Dichte der Windungen
12 Modelle für die Lösung physikalischer Widersprüche
177
haben, jedoch für ein schwaches Wärmefeld im Induktor eine geringe Dichte der Windungen ; - die Integration dieser alternativen Lösungen führt zur Kontrolllösung, die Sie bereits aus Beispiel 60 kennen: die Anzahl der Spiralen im Zentrum des Heizelements ist geringer als an den Rändern. In dieser Lösung hat die Spirale des neuen (integrierten) Heizelements eine heterogene Struktur angenommen, um die geforderten Bedingungen für die Erhitzung in verschiedenen räumlichen Zonen zu gewährleisten. Bsp. 73. „Zwei Fliegen mit einer Klappe schlagen“. Bei der Herstellung bestimm-ter Erzeugnisse müssen eingeschlagene Nägel wieder herausgezogen werden. Das passiert in solchen Fällen, wenn der Nagel nur zeitweise als Hilfselement für die Verbindung von Details verwendet wird und danach entfernt werden muss. Das lässt sich oft nicht leicht machen, ohne das Material, in dem sich der Nagel befindet, zu beschädigen, besonders dort wo der Kopf des Nagels sitzt. In das Material müssen die scharfen Spitzen spezieller Zangen oder ein anderer scharfer und fester Gegenstand gedrückt werden, um hinter den Kopf greifen zu können, der dicht an die Oberfläche des Erzeugnisses angedrückt ist, oder manchmal sogar vollständig im Material versenkt wurde. Kommen wir zum Re-Inventing einer interessanten Idee, die in der Ukraine entwickelt wurde. Konstruieren wir das Modell der Problemsituation in Form eines physikalischen Ausgangswiderspruchs. damit der Nagel das Erster Zustand: Erzeugnis halten kann muss tief im Material sein Komponente : Kopf des Nagels
Zweiter Zustand:
damit der Nagel leicht zu fassen ist Reduzieren wir das Ausgangsmodell auf eine konstruktive Form und teilen es sofort in zwei unabhängige Modelle auf (beachten Sie bitte den kaum spürbaren, jedoch nützlichen Unterschied, den wir hier zu Lehrzwecken demonstrieren). soll nicht tief im Material sein
Erstes Modell Komponente: Kopf des Nagels
befindet sich im Material
damit der Nagel das Erzeugnis halten kann
Zweites Modell Komponente: Kopf des Nagels
befindet sich nicht im Material
damit der Nagel leicht zu fassen ist
Jetzt können wir zwei unabhängige Lösungen erkennen: erstens – der Nagel wird wie gewöhnlich eingeschlagen, sein Kopf liegt dann unmittelbar an der Oberfläche des Erzeugnisses an oder versinkt in diese Oberfläche; zweitens – der Nagel wird so eingeschlagen, dass zwischen dem unteren Teil seines Kopfes und der Oberfläche der Erzeugnisses eine Lücke bleibt, ausreichend dafür, dass man ihn leicht herausziehen kann, indem hinter seinen Kopf gegriffen wird. Jetzt muss die psychologische Hemmung überwunden werden und zwei Lösungen zu einer verbunden werden – einen Nagel erfinden, der unvereinbare Zustände vereint.
178
Klassische Navigatoren des Erfindens des A-Studios
Kontrolllösung: der Nagel hat zwei Köpfe (Abb. 12.1), die übereinander liegen und zwischen denen eine Lücke ist, in die man greifen kann, um den Nagel herauszuziehen. Der untere Teil Abb. 12.1. Nagel mit zwei Köpfen liegt am Erzeugnis an und der obere dient nur dem Herausziehen des Nagels. Die dominierende Ressource ist funktional-strukturell, da die Anzahl der Elemente des Objekts verändert wurde, dabei erfüllt jedes Element seine spezielle Funktion. Die Hilfsressourcen sind räumliche, da die Form des Objekts verändert wurde, zeitliche – die neuen Teile des Objekts werden in verschiedenen sich nicht überschneidenden Zeitintervallen verwendet und stoffliche – es hat sich die Materialmenge in der Konstruktion des Nagels erhöht. Wenn Sie daran Interesse haben, können Sie eine detailliertere Verifikation der Lösungsidee durchführen und dabei sei es zu Lehrzwecken oder auch zu beruflichen Zielen, die Vor- und Nachteile dieser Lösung bewerten. Bsp. 74. Safe mit doppeltem Boden am Strand. Damit am Strand weder der Wind noch irgendwelche Diebe Ihre Sachen und Wertgegenstände forttragen, muss eine technische Lösung gefunden werden, die auf leicht verfügbare Ressourcen beruht. Hier wollen wir die Lösung nach der verkürzten Variante unter Berücksichtigung der Anmerkungen 1 und 2 zu den Schritten der Methode darstellen. Nehmen wir an, Sie kommen an den Strand mit irgendeiner Konstruktion, nennen wir sie Koffer, Safe oder Kühlschrank, wie sie gerade möchten. Aus dieser Konstruktion holen Sie Luftmatratze und Ihren Sonnenschutz, und legen dann Ihre Kleidung, Ihr Geld und Ihre Dokumente dorthinein, gleichzeitig können darin aber auch Ihre mitgebrachten Getränke, Bücher oder Spielsachen liegen. Führen wir nur zwei Schritte (2 und 4) der Methode für diese Konstruktion aus (ich wähle die Bezeichnung „Safe“): 2. der Safe muss leicht sein (für den Transport) und muss schwer sein (damit er nicht vom Wind oder Dieben weggetragen werden kann) – stellen Sie sich einen leichten Safe für den Transport Ihrer Sachen vor und einen anderen schweren, der am Strand steht, in den Sie den mitgebrachten leichten Safe stellen können, und so haben Sie eine Art doppelten Safe, zumindest einen mit zwei Wänden; 4. jetzt muss aus zwei Konstruktionen eine gemacht werden: jetzt nehmen wir an, dass der einzige tragbare integrierte Safe selbst zwei Wände hat, z.B. einen doppelten Boden. Den Raum zwischen beiden Böden kann man mit Sand, kleinen Steinen oder sogar mit Wasser füllen, alles Dinge die am Strand leicht zu haben sind. Und genau das ist die Idee des „Sandsafes“, die sich ein Erfinder aus Großbritannien patentieren ließ. Die dominierende Ressource ist hier der Stoff, die Veränderung des Gewichts des Safes durch zufügen von Material von außen. Verwendete oder berücksichtigte Hilfsressourcen: Struktur und Raum – der Safe hat zwei Wände und lässt sich mit einem Schloss am Eingang bzw. Ausgang für das Ausfüllen des Zwischenraums zwischen den Wänden verschließen; zeitliche Ressource – der Safe hat ein unterschiedliches Gewicht zu sich nicht überschneidenden Zeiten. Dieses Objekt lässt sich auf interessante Weise weiterentwickeln.
12 Modelle für die Lösung physikalischer Widersprüche
179
12.2 Kataloge der fundamentalen Transformationen Die besondere Rolle, welche die Modelle physikalischer Widersprüche bei der Lösung von Aufgaben beim Erfinden spielen, erklärt sich aus ihrer „Position“ in der operativen Zone. Ein physikalischer Widerspruch – das ist der äußerst verschärfte Ausdruck für das Wesen eines Problems, der zentrale Punkt in jeder operativen Zone. Dennoch haben Sie sicher anhand der bisherigen Beispiele bemerkt, dass es auch für physikalische Widersprüche Transformationsverfahren und -modelle gibt, die das Generieren von neuen Ideen erleichtern. Dem dienen auch die A-Kataloge Nr. 5-7 mit spezializierten Navigatoren und Standards für die Lösung physikalischer Widersprüche. Den Hauptkatalog 5 Fundamentale Transformationen, der nicht gerade umfangreich ist, finden Sie weiter unten in den Abbildungen 12.2-12.5. An dieser Stelle müssen ein paar Erklärungen zu einigen dieser Illustrationen gemacht werden. Die Mehrheit der Beispiele illustriert eine bestimmte dominierende Ressource, z.B. eine räumliche oder zeitliche, entsprechend der Haupttransformation. Bei der Realisierung der Transformationen jedoch, erweisen sich auch andere Ressourcen als mitbeteiligt, und das oft auch äußerst grundlegend. Deshalb könnten einige Beispiele durchaus gleichzeitig auch andere Transformationen gut illustrieren. Betrachten wir die Illustrationen zu fundamentalen Transformationen in Form von Beispielen und Übungen zur Formulierung physikalischer Widersprüche, sowie zur Analyse der verwendeten Ressourcen. Bsp. 75. Fundamentale Transformationen im Raum. Beispiele für Modelle und Lösungen physikalischer Widersprüche zu den Abbildungen 12.2: a) Fahrzeuge, die auf Kreuzungen zufahren, die sich auch auf einer Ebene kreuzen, können zusammenstoßen, sollen aber nicht zusammenstoßen, um Opfer und materielle Schäden zu vermeiden. Lösung: Ausgliedern der Straßen auf verschiedene Ebenen mit Hilfe von Brücken oder Tunneln (dominierende Ressource – räumliche). b) Große Menschenmengen müssen geordnet werden, um Störungen bei der Bewegung und Verletzung durch Zusammenstöße bei Gedränge in schmalen Durchgängen zu vermeiden, sie sollen aber auch nicht geordnet werden außerhalb dieser Durchgänge. Die dominierende Ressource ist hier die räumliche – in zwei Aspekten: Absonderung der operativen Zone und Vorgabe einer bestimmten Bewegungsbahn innerhalb der operativen Zone. Die Lösung verwendet auch eine strukturelle Ressource, da in Abhängigkeit von der Breite des Durchgangs die Struktur der Schlange vorgegeben wird – einzeln, zu zweit usw. Für die Beschränkung der Anzahl der Passanten in der operativen Zone kann auch eine räumlich-zeitliche Ressource verwendet werden – Zutritt von kleinen Personengruppen zu Trennbarrieren in bestimmten Zeitintervallen. c) Brennstoff an Bord soll soviel wie möglich da sein und es soll nicht viel da sein, damit die Ausbalancierung des Flugzeugs je nach Brennstoffverbrauch erleichtert wird.
180
Klassische Navigatoren des Erfindens des A-Studios
Verwendet wird: eine räumliche Ressource (es werden Hohlräume in den Flügeln ausgenutzt), strukturelle Ressource (der Brennstoff wird in viele Teile unterteilt) und strukturell-zeitliche Ressource (der Brennstoff wird zunächst von den äußeren Räumen im Rumpf und den Flügeln genommen).
a) Lage sich kreuzender Autobahnen auf verschiedenen Ebenen
b) Abtrennen und Zerteilen des Raums für die Ordnung von Menschenschlangen
c) Verwendung von Hohlräumen in einer Konstruktion
Abb. 12.2. Beispiele für fundamentale Transformationen im Raum
Bsp. 76. Fundamentale Transformationen in der Zeit. Beispiele für Modelle und Lösungen physikalischer Widersprüche zu den Abbildungen 12.3: a) s. Beispiel 75, Punkt a); Lösung: Überqueren der Kreuzung durch die Konfliktströme nacheinander (dominierende Ressource – zeitlich). b) ein Boot soll einen Mast haben (um das Segel zu halten – auf dem offenen Wasser) und soll keinen Mast haben (damit es unter Brücken frei durchfahren kann). Das Boot hat in der operativen Zeit auch eine veränderliche Form (räumliche Ressource), wofür sich innerhalb des Mastes ein dynamisches Element befindet (Scharnier). In der operativen (Konflikt-) Zeit erfüllt der Mast nicht seine nützliche Hauptfunktion, und außerhalb der operativen Zeit – erfüllt er sie. All das in der Summe ermöglichte eine Lösung des Konflikts in der Zeit.
a) Zerteilen sich kreuzender Verkehrsströme in der Zeit
b) der Mast wird für die Zeit der Unterquerung der Brücke eingezogen
Abb. 12.3. Beispiele fundamentaler Transformationen in der Zeit
c) der Verlauf des Laserstrahls auf benachbarten Linien wird zeitlich aufgeteilt
12 Modelle für die Lösung physikalischer Widersprüche
181
c) Ein Laserstrahl muss benachbarte Linien kreuzen, damit vollständige Zeichnungen entstehen können, aber soll keine benachbarten Linien kreuzen, damit die Platte nicht zu heiß wird, und die Genauigkeit des Aufbringens der Zeichnung erhalten werden kann. Es gibt eine Verzögerung mit welcher der Laserstrahl auf eine benachbarte Linie fällt, was eine Erhitzung des zu bearbeitenden Materials vermeiden lässt – hier nimmt bei der Lösung des Widerspruchs auch eine räumliche Ressource teil (die Bewegungsbahn des Strahls) und eine stoffliche Ressource (Wärmeleitfähigkeit und Wärmeabgabe des Materials). Bsp. 77. Fundamentale Transformationen in der Struktur. Beispiele für Modelle und Lösungen physikalischer Widersprüche zu den Abbildungen 12.4: a) Eine Fahrradkette muss flexibel sein, um die Zahnräder für die Übertragung genau zu umlaufen, aber sie soll stabil und fest sein, um relativ große Kräfte zwischen den Zahnrädern zu übertragen. Strukturelle Lösung: die Teile des Systems (Glieder) sind fest und nicht flexibel, das gesamte System hingegen (Kette) – ist flexibel. Analysieren Sie bitte auch die Rolle anderer Ressourcen. b) Außerhalb des operativen Zeitintervalls (bei Havarien) muss eine Rettungsrutsche eine Form haben, die nicht viel Platz einnimmt, in der operativen Zeit aber muss sie die optimale Form einer Rettungsrutsche haben. In diesem Beispiel wird der Akzent auf den Kontrast zwischen „weichen“ Elementen und „festem“ System im Ganzen gesetzt. Für die Arbeit einer Rettungsrutsche in der operativen Zeit wird auch Energie und die Volumenressource der komprimierten Luft (Stoff) verwendet und natürlich auch Veränderung der Form (Ressource des Raums). c) Werkstücke mit komplizierter Form müssen fest sein und zuverlässig angedrückt werden für die Bearbeitung und sie sollen nicht stark angedrückt sein, damit ihre Oberfläche nicht beschädigt wird.
a) Kettenglieder sind nichtflexibel, die gesamte Kette ist flexibel
b) im Arbeitszustand bilden die weichen Elemente eine „feste Rutsche“
c) bewegliche Zylinder schaffen einen zuverlässigen Andruck der komplizierten Details
Abb. 12.4. Beispiele fundamentaler Transformationen in der Struktur
Es dominiert eine räumlich-strukturelle Ressource – zwischen den andrückenden Oberflächen der Zwingen. Auf einem speziellen Gestell sind bewegliche zylindrische Elemente installiert, die je nach Annäherung der andrückenden Oberflächen dicht das Detail mit komplizierter Form umschließen, und die Andrückkraft auf eine größere Fläche verteilen. Das gewährleistet ein festes Halten der Details mit komplizierter Form während des Prozesses der Bearbeitung.
182
Klassische Navigatoren des Erfindens des A-Studios
Bsp. 78. Fundamentale Transformationen im Stoff. Beispiele für Modelle und Lösungen physikalischer Widersprüche zu den Abbildungen 12.5: a) Die Stoffmenge muss gering sein, um einen wirtschaftlichen Motor zu haben, und die Stoffmenge muss groß sein, damit die Differenz im Volumen vor und nach der Verbrennung ausreichend ist, um die Arbeit auszuführen. Ein Beispiel für die Lösung eines Problems im Stoff (im Benzinmotor): beim Verbrennungsprozess eines Gemischs aus einer geringen Menge von Benzin und Luft streben die Verbrennungsprodukte in Form heißen Gases danach, sich auszudehnen und drücken mit großer Kraft auf die Kolben, die im Arbeitszylinder gleiten. Die entstandene Energie ist groß genug, um eine Arbeit zur Bewegung der Kolben zu verrichten und deren Bewegung wird mit Übertragungsmechanismen auf die Räder des Fahrzeugs übertragen, die sich vom Boden wegdrücken und im Ergebnis das Fahrzeug nach vorn stoßen. Analysieren Sie auch die Rolle anderer Ressourcen. b) Sonnenbrillen sollen ihre Durchsichtigkeit ändern in Abhängigkeit von der Lichtstärke, und sollen für diese Veränderung vom Träger keine Handlungen erfordern. Die ideale Lösung im Stoff: chromatische Gläser verändern selbstständig ihre Lichtdurchlässigkeit in Abhängigkeit von der Lichtstärke! c) Beim Fotografieren soll der Blitz da sein, um eine hohe Qualität der Aufnahme zu gewährleisten, und der Blitz soll nicht da sein, um zu vermeiden, dass die Pupillen des Fotografierten rot erscheinen (negativer Effekt „rote Augen“). Um zu vermeiden, dass auf Fotografien so genannte „rote Augen“ erscheinen, wurde neben dem biophysikalischen Effekt des Reagierens der Augen auf das Licht des Blitzes, mindestens noch eine zeitliche Ressource verwendet, speziell ein Blitz mit geringerer Stärke, der in kurzem Abstand vor dem eigentlichen Blitz geschaltet ist.
a) Gewinnung von Nutzenergie beim Verbrennen eines Stoffs
b) chromatische Gläser verändern ihre Durchlässigkeit selbst bei Veränderung der Lichtstärke
c) der Vorblitz verengt die Pupillen und beseitigt die „roten Augen“
Abb. 12.5. Beispiele fundamentaler Transformationen im Stoff
Und so haben wir vom Wesen her ein Re-Inventing für 12 technische Lösungen durchgeführt, von denen mindestens die Hälfte Erfindungen sind. Diese Kommentare sind eine kleine Lektion für das Verständnis und das Aufdecken von Ressourcen in Systemen und Prozessen. Die Kataloge 6 und 7 instrumentalisieren die fundamentalen Transformationen mit Hilfe der Ⱥ-Standards und der Ⱥ-Navigatoren. Viele Standards und
12 Modelle für die Lösung physikalischer Widersprüche
183
Navigatoren lassen sich von der Richtung der Empfehlungen her, mit bestimmten fundamentalen Transformationen koordinieren. Und genau diese Standards und Navigatoren wurden in die Kataloge als detaillierte und praktische Transformationsmodelle aufgenommen. Kommen wir jetzt zu komplizierteren Aufgaben. 12.3 Anwendungsprinzipien der fundamentalen Transformationen Bsp. 79. Training für das Wasserspringen. Hierbei handelt es sich um eine der wohl bekanntesten TRIZ-Aufgaben. Die Problemsituation besteht in folgendem. Beim Training für das Wasserspringen kommt es zu missglückten Versuchen. Bei nicht richtigem Eintauchen kann der Sportler auf die Wasseroberfläche aufschlagen und sich verletzen. Wie kann die Sicherheit des Trainings erhöht werden? Verwandeln wir den administrativen Widerspruch, der sich in dieser Frage befindet, in ein konstruktiveres Modell in Form eines physikalischen Widerspruchs: Komponente: Wasser
soll „fest“sein
entsprechend seiner Eigenschaften
soll „weich“sein
bei misslungenem Sprung eines Sportlers
Es ist recht klar, dass für die Lösung der Aufgabe stoffliche und strukturelle Ressourcen von Interesse sind: in gewisser Hinsicht muss der Stoff (Wasser) verändert werden, wenn möglich nur in einem eingeschränkten Teil des Systems (nicht also im gesamten Becken). Eine zeitliche Ressource spielt eine Hilfsrolle. Das bedeutet, dass die Lösung der Aufgabe nur für einen bestimmten Abschnitt in der operativen Zeit wirksam ist, speziell dann, wenn der Trainer sieht, dass der Sprung nicht ordnungsgemäß abgeschlossen werden kann. Gehen wir in den Katalog 6 Fundamentale Transformationen und Kompaktstandards. Die Durchsicht des Katalogs zeigt, dass einige Positionen von Interesse sein können. Wir wollen sie hier mit ihren Interpretationen entsprechend der Bedingungen der zu lösenden Aufgabe wiedergeben (Abb.12.6). Notieren wir das ideale funktionale Modell auf dem Mikroniveau: eine ɏRessource in Form von Stoff- oder Energieteilchen befindet sich in der operativen Zone und gewährleistet gemeinsam mit anderen vorhandenen Ressourcen den Erhalt von „weichem Wasser“. Wir haben jetzt also das konkrete Ziel, den Zustand des Stoffs (Wasser) zu verändern, z.B. durch die Verbindung des Wassers mit irgendeiner anderen Ressource. Somit können wir uns jetzt der Ressourcensuche im System und seiner Umgebung zuwenden. Die am besten verfügbare Ressource ist Luft. Kontrolllösung: dem Wasser Luft zuführen! In der operativen Zone, am Boden des Beckens wird der Ausgang eines Systems installiert, das Luft ausstößt und mit einem Diffusor große Luftblasen, die sich schlecht im Wasser halten, zerkleinert. Diese kleinen Blasen reichern eine ganze Wassersäule in der operativen Zone mit Luft an. So erhalten wir für eine bestimmte Zeit ein Wasser-Luft-Gemisch, das eine bedeutend geringere Dichte hat als normales Wasser. Die Sprünge werden ungefährlich.
184
Klassische Navigatoren des Erfindens des A-Studios
Zerteilen Systemübergang 1-c: das gesamte in der Struktur System wird mit der
Die gesamte Wassermenge im Bassin bildet das System. Ein Teil des Systems (die operative Zone) – die Wassermenge an der Stelle, wo der Sportler in das Wasser eintritt, z.B. ein bedingter Zylinder mit einem Durchmesser von 3 Metern und einer Höhe, genauer, Tiefe von der Oberfläche bis zum Boden des Bassins. Und dieser Teil des Wassers soll „weich“ sein.
Phasenübergang 1: Veränderung des Phasenzustandes eines Teils des Systems oder der Umgebung
Die Flüssigkeit drückt sich nicht zusammen. Das ist auch der Grund für die „Zähigkeit“ des Wassers bei schnellem Kontakt mit ihm – das Wasser schafft es nicht schnell auseinander zu gehen, drückt sich aber auch nicht zusammen. Das Wasser „weich“ machen heißt also, es „flexibel“, „komprimierbar“ zu machen, z.B. durch Verringerung seiner Dichte.
Phasenübergang 2: „Doppelzustand“ eines Systemteils (Übergang dieses Systemteils von einem Zustand in einen anderen in Abhängigkeit von den Funktionsbedingungen)
Irgendein „anderes“ Wasser mit einer anderen Dichte zu verwenden, erweist sich als unmöglich. Demzufolge kann eine steuerbare Veränderung der Eigenschaften des Wassers in der operativen Zone, in der operativen Zeit das Ziel sein. Dabei ist es besser das bei jedem Sprung zu tun, wenn die gewünschte Veränderung der Eigenschaften des Wassers sich mit einer gewissen Verzögerung vollzieht.
Eigenschaft E ausgestattet, und seine Teile mit der Eigenschaft Anti-E.
Zerteilen im Stoff (Energie)
Abb. 12.6. Ausgewählte Modelle fundamentaler Transformationen für das Beispiel 79
Untersuchen Sie selbst die Möglichkeit, diese Aufgabe mit Hilfe von Standardtransformationen zu lösen (Abschn. 10.2). Bsp. 80. Für jene, die Rasen lieben, ihn aber nicht gerne mähen. Das „Problem“ steckt bereits in der Bezeichnung des Beispiels und lässt sich in Form eines administrativen Frage-Widerspruchs formulieren: wie kann man erreichen, dass der Rasen seltener gemäht werden muss? Wandeln wir den administrativen in einen physikalischen Widerspruch um: Rasen
muss man mähen, damit der Rasen gepflegt aussieht soll nicht gemäht werden ... ohne weiteren Kommentar
Abb. 12.7. Modell des physikalischen Widerspruchs für das Beispiel 80
Es ist klar, dass in die Lösung eine stoffliche Ressource einbezogen werden muss, irgendeine Veränderung dieses Stoffs. Festzustellen ist auch die Beteiligung einer zeitlichen und räumlichen Ressource, jedoch nicht als „entscheidende“, sondern als Zielressourcen über das ideale Endresultat: das Gras wächst bis zu einer bestimmten Länge, dann aber hört es auf zu wachsen. Die Rolle der strukturellen Ressource ist hier nicht eindeutig zu erkennen. Wenden wir uns aber dem Katalog
12 Modelle für die Lösung physikalischer Widersprüche
185
zu, finden wir mindestens drei interessante Transformationen, von denen zwei eben zur strukturellen Ressource gehören: Systemübergang 1-b: vom System zum Antisystem oder Verbindung des Systems mit dem Antisystem. Systemübergang 2: Übergang zu einem System, das auf der Mikroebene arbeitet. Physikalisch-chemischer Übergang: Entstehen und Verschwinden eines Stoffs durch Zerlegen - Verbinden, Ionisieren – Rekombinieren usw. Abb. 12.8. Potentiell wichtige Transformationen für das Beispiel 80
Die Realisierung des idealen Resultats stimmt völlig mit den ersten zwei Transformationen überein und die zweite ist eng mit der dritten verbunden. Die Frage besteht nur darin, dieses Ergebnis zu finden und anzuwenden, wenn es bekannt ist, oder einen Mechanismus für einen solchen idealen Prozess zu schaffen. Kontrolllösung: an der Universität von Canberra (Australien) wurde ein Stoff entwickelt, der das Wachstum des Grases bremst. Bei der Arbeit mit Wachstumshormonen von Pflanzen entdeckten die Wissenschaftler die Möglichkeit, einen Stoff mit entgegengesetzten Eigenschaften zu erzeugen, der das Wachstum des Rasens um das dreifache verlangsamt. Durch das Begießen des Rasens, mit Wasser, dem der Anti-Stimulator (Verzögerer) für das Wachstum des Grases zugefügt wird, werden die Zeitabstände in denen der Rasen gemäht werden muss um ein Vielfaches größer. Supereffekt: die Anwendung des neuen Stoffs kann auch eine Perspektive beim Getreideanbau haben, indem die Länge der Halme verringert wird und das Getreide so widerstandsfähiger gegen Wind, Wasser und Einwirkung der Räder von Fahrzeugen wird. Bsp. 81. Wer gewinnt – Hubschrauber oder Flugzeug? Wir haben bereits ein Re-Inventing für das Senkrechtstarten gemacht (s. Beispiel 4). Die Schlüsselidee bestand in der Anwendung des Navigators 07 Dynamisieren. Dazu wurden in den Flugzeugkonstruktionen unterschiedliche Ideen und ihre Kombinationen ausprobiert: getrennte Motoren – extra für die Schaffung einer Auftriebskraft bei Start und Landung und extra für den horizontalen Flug; drehbare Flügel (zusammen mit dem Motor); drehbare Motoren; drehbare Düsen von Düsenflugzeugen; drehbare Propeller mit beweglichem Antrieb von nichtbeweglichen Motoren; drehbare Schaufeln auf den Flügeln, um Luft- oder Gasströme abzulenken und andere. Was treibt die Entwickler solcher Flugzeuge an? Heute dominiert doch am Himmel anscheinend ganz deutlich der Hubschrauber! Wie auch in vielen anderen Bereichen der Technik diente die Erfindung des Hubschraubers in erster Linie militärischen Zwecken. Im Prinzip wurde erst beim Wettlauf der Ideen eine nichtmilitärische Anwendung solcher Maschinen in Betracht gezogen. Und diese Anwendung deckte praktisch den ganzen Bereich der Möglichkeiten von Senkrechtstartern ab: Rettungsdienste und medizinische Hilfe, Patrouillen der Polizei und wissenschaftliche Beobachtungen, Tourismus und auch Taxi. Und dennoch ist auch der Hubschrauber seinerseits ein Beispiel für die psychologische Trägheit – es gibt ihn schon, und andere technische Ideen bleiben noch immer im „Reich der Phantasie“. Dabei wird jedoch vergessen, dass dieses technische System aus der
186
Klassische Navigatoren des Erfindens des A-Studios
Militärtechnik stammt und einen sehr hohen Verbrauch an Brennstoff hat, dessen Bestände auf der Erde sehr eingeschränkt sind. Dieser Umstand gilt bis zum heutigen Tage noch immer nicht als globales Kriterium für Qualität und Effektivität. Jedoch ist den Spezialisten bekannt, dass das Flugzeug im Vergleich zum Hubschrauber fünfmal so effektiv und bedeutend sicherer ist. Die größere Sicherheit ist damit verbunden, dass Landungen wie bei normalen Flugzeugen im Gleitflug erfolgen können. Erst in den letzten Jahren sehen wir Beispiele für die Entwicklung alternativer Systeme für nichtmilitärische Zwecke (obwohl, natürlich auf der Basis von Gerätschaften mit ursprünglich militärischer Nutzung). So entwickelte zum Beispiel die Firma Bell Helicopter TEXTRON, USA gemeinsam mit der Firma Boeing, USA – den Hubschrauber Bell/Agusta 609 auf der Grundlage der Militärmaschinen vom Typ Bell Helicopter (von der leichten Maschine Bell Boeing V-22 Osprey bis zur leichten Bell/Agusta HV 609). Übrigens ist die Firma Bell Helicopter einer der Pioniere des Flugzeugbaus bei Senkrechtstartern bereits seit Beginn der 1950er Jahre. Und dennoch haben die bekannten Flugzeugkonstruktionen mit drehbaren Motoren (Flügeln usw.) eindeutig das Prinzip des Hubschraubers übernommen – senkrechter Start und Landung. Das wurde speziell durch sehr große Propeller mit vertikaler Drehachse erreicht. Lässt sich die Wirtschaftlichkeit und Sicherheit von Flugzeugen mit vertikalem Start und Landung (zumindest mit geringeren Nutzlasten, bis zu einer Tonne) radikal erhöhen, damit sie zu einer ernst zu nehmenden Konkurrenz für Hubschrauber und „Hybride“ aus Hubschraubern und Flugzeugen werden können? Wenn wir das Modell aufs Äußerste vereinfachen, wie es die TRIZ empfiehlt, kann man sagen, dass die Propeller eines Hybridflugzeuges einen Flugstrom schaffen, der vertikal gerichtet ist, um starten bzw. landen zu können. Mit anderen Worten lässt sich ein Hybridflugzeug entwickeln, jedoch nicht ausgehend vom Hubschrauber, sondern vom Flugzeug? Wenn wir dann ein normales Flugzeug als Prototyp nehmen, müssen wir ihm „beibringen“, die Luft gut nach unten verdrängen zu können. Nehmen wir diese Idee als ideales Endresultat. Wandeln wir den administrativen Widerspruch in einen physikalischen um: soll sein
um einen Schub durch Luftverdrängung zu erzeugen
Propeller soll nicht sein
um den Flug effektiver und sicherer steuern zu können
Abb. 12.9. Modell des physikalischen Widerspruchs für das Beispiel 81
Dominierende Ressourcen: zeitliche, räumliche und strukturelle. Die zeitliche Ressource ist deshalb beteiligt, weil ein starker Konflikt mit zwei Zeitphasen des Flugs in Verbindung steht – horizontal und vertikal. Räumliche Ressource: es muss der Luftstrom im Raum umgekehrt werden. Strukturelle Ressource: es muss zumindest das Prinzip „Entgegengesetzt“ angewendet werden, speziell auf den Hubschrauberstart und Landung verzichten, und einen neuen Navigator des Abhebens und Landens entlang der Vertikale gefunden werden.
12 Modelle für die Lösung physikalischer Widersprüche
187
Da hier der Charakter, mit dem die Ressourcen auftreten, sehr kompliziert ist, sollten wir uns dem Katalog Fundamentale Transformationen und A-Navigatoren zuwenden (Anlage 7):
01 Zerteilen im Raum
05 Ausgliedern: das störende Teil ausgliedern, das notwendige Teil hervorheben. 19 Übergang in eine andere Dimension: den Freiheitsgrad der Bewegung eines Objekts erhöhen, Bauarten in mehreren Schichten, seitliche und andere Oberflächen ausnutzen. 34 Matrjoschka: nach und nach ein Objekt in einem anderen unterbringen, ein Objekt im Hohlraum eines anderen platzieren.
Der Luftstrom muss als steuerbares Objekt ausgegliedert werden, seine Zuführung in notwendigen Richtungen muss organisiert werden, der Strom muss durch die Maschine geleitet werden (durch den Rumpf, die Flügel und andere Teile). Beispiel: Verwendung des Luftstroms anstelle eines stabilisierenden Rotors.
02 Zerteilen in der Zeit
Interpretation
07 Dynamisierung: ein Objekt (oder dessen Teile) beweglich machen, die Charakteristika des Prozesses (des Objekts) bei jedem Arbeitsgang optimieren. 18.b Vermittler: ein Objekt für bestimmte Zeit mit einem anderen (leicht zu entfernendem) verbinden. 40 Ununterbrochene nützliche Funktion: Leerlauf und Unterbrechungen beseitigen, alle Teile eines Objekts müssen immer mit voller Belastung arbeiten.
Den Luftstrom umkehren mit Hilfe einer Vermittlereinrichtung, eine permanente Steuerung gewährleisten. Beispiele: Umkehr von Düsenstabilisatoren im Hubschrauber – MD Explorer der Firma Hughes Helicopters und McDonnel Douglas (dieser Hubschrauber hat keinen Rotor am Heck); Umkehrung von Schlitzen in den Flügeln von Hybridflugzeugen.
03 Zerteilen in der Struktur
Verbindung zu den A-Navigatoren
03 Zerteilen: das Objekt in Teile zerlegen, den Grad der „Zerteiltheit“ erhöhen. 11 Entgegengesetzt: anstelle der Handlung, die von den Umständen vorgegeben zu sein scheint, das Gegenteil tun. 12 Lokale Eigenschaft: Übergang von einer gleichartigen Struktur zu einer verschiedenartigen, so dass jedes Teil seine Funktion unter bestmöglichen Bedingungen ausführen kann. 35.a Verbinden: Verbinden gleichartiger oder für benachbarte Operationen bestimmter Objekte
Den Luftstrom in steuerbare Teile zerlegen. Nicht die Drehung der Propeller steuern, sondern die Drehung der Luft mit Hilfe eines Vermittlers (s.o. MD Explorer). Um die Zuverlässigkeit zu erhöhen, Teile mit gleicher Funktion verbinden. Beispiel: Doppelmotor an jedem Propeller in der Maschine Bell/Agusta 609.
Abb. 12.10. Wichtige Transformationen und ihre Interpretation für das Beispiel 81
Kontrolllösung: das Moskauer Luftfahrtinstitut (MAI) ließ sich eine technische Lösung patentieren, welche die besten Ideen aus dem Bau von Senkrechtstartern (Abb. 12.11) zusammen mit den Schlüsselideen für die Steuerung von Luftströmen durch flexible drehbare Gitterplatten aufgreift. Die Maschine hat drei Propeller, die von zwei Gasturbinen angetrieben werden (Abb. 12.11a). Der Bugpropeller arbeitet nur beim Start und der Landung. Die Hubpropeller arbeiten permanent. Die Richtung und der Bewegungsablauf hängen von der Position der Steuerplatten
188
Klassische Navigatoren des Erfindens des A-Studios
ab (Abb. 12.11.b), welche weniger träge sind, und deshalb eine bessere Steuerbarkeit bei Start und Landung im Vergleich zu drehbaren Propellern gewährleisten. Bei horizontalem Flug sind die vorderen Lamellen zum Lufteintritt und die Steuerplatten geschlossen.
b)
a) Abb. 12.11. Senkrechtstarter ɆȺI: a) Das Flugzeug, b) in Flugphasen
Bsp. 82. Prothesen für Gefäße. Bei einer Reihe von Operationen an Blutgefäßen, an den Wänden der Speiseröhre, an den Gallengängen und an anderen Gefäßen werden Stützprothesen inner- oder außerhalb des Gefäßes (Röhren, Spiralen u.ä.) eingesetzt. Die Prothese verleiht dem Gefäß die erforderliche Form, erweitert oder verengt das Gefäß. In beiden Fällen kommt es zu einem starken Widerspruch: der Durchmesser (Querschnitt) der Prothese entspricht nicht der Größe (Querschnitt) des beschädigten Gefäßes. So müssen in verengte Gefäße breitere Prothesen eingesetzt werden und in erweiterte – enge. Die Verwendung von Prothesen mit federnden Eigenschaften ist bei langen Prothesen recht kompliziert, da man sie beim Einsetzen in das Gefäß nur schwer im gespannten Zustand halten kann. Oder entgegengesetzt, im entspannten Zustand beim Einsetzen auf das Gefäß von außen. Man braucht eine Prothese, die sich selbst in den benötigten Zustand bringen kann, der einen günstigen Ausgangszustand für die Operation darstellt. Erstes Modell des physikalischen Widerspruchs: die Prothese muss während der Operation klein sein, damit sie ins Innere des Gefäßes eingesetzt werden kann und sie muss groß sein, um nach der Operation ständig im Gefäß verbleiben zu können. Zweites Modell des physikalischen Widerspruchs: die Prothese muss während der Operation groß sein, um von außen auf das Gefäß aufgesetzt werden zu können und sie muss klein sein, um nach der Operation ständig von außen auf dem Gefäß verbleiben zu können. Wichtig hierbei ist, dass sich die Modelle der Widersprüche selbst in einem starken Konflikt zueinander befinden, da sie direkt entgegengesetzte Eigenschaften an das Material der Prothese stellen! Lässt sich aber hier doch das „absolut Unvereinbare“ vereinen? Es ist klar, dass zunächst folgende drei Ressourcen berücksichtigt werden müssen: räumlich – Vergrößerung – Verkleinerung der Maße; zeitlich – Zeitintervall des Funktionierens der Prothese während, und nach der Operation; stofflich – es wird ein Material mit besonderen Eigenschaften benötigt, ideal wäre ein Material, das zwei stabile Zustände haben kann und zwischen denen der Übergang steuerbar wäre.
12 Modelle für die Lösung physikalischer Widersprüche
189
Im Katalog der Fundamentalen Transformationen und in den AKompaktstandards (Anlage 6) gibt es unter Punkt 4.2 ein interessantes Beispiel mit Verwendung eines Materials mit Speicherung seiner Form. Sollten Sie solche Materialien nicht kennen, wäre es sicher interessant für Sie, darüber in entsprechenden Nachschlagewerken nachzulesen. Kontrolllösung: Das wissenschaftliche Zentrum für Chirurgie an der Akademie der medizinischen Wissenschaften Russlands, das Moskauer Institut für Legierungen und Stahl, die Staatliche Russische Medizinische Universität und andere Institutionen haben eine Reihe von verschiedenen Prothesen für Gefäße auf der Basis von Metallen mit Speicherung der Form entwickelt. So z.B. eine Spirale aus Nickeltitan, die bei einer Temperatur von ca. 0ºɋ auf einen geringen Durchmesser verdreht ist. Sie wird durch einen minimalen Schnitt in das Gefäß eingeführt, wo sich diese Spirale dann nach und nach auf Körpertemperatur erwärmt. Dabei vergrößert sich ihr Durchmesser bis auf die Arbeitsgröße und erweitert so das Gefäß. Die Operation dauert weniger als eine Stunde und verläuft ohne Narkose unter Beobachtung auf einem Röntgenbildschirm. Im anderen Fall handelt es sich um ein Gerüst, das aus einer Vielzahl von Halbringen besteht. Bei einer Temperatur von 0°C dehnt es sich so aus, dass die Breite des „Querschnitts“ der Halbringe größer ist als das zu operierende Gefäß. Nach Erwärmung des Metalls auf Körpertemperatur ziehen sich die Halbringe so zusammen, dass sie sich selbst zu einem Kreis verbinden und das Gefäß sicher umschließen. So verhindern sie, dass sich das Gefäß erweitern kann.
a)
b)
Abb. 12.12. Prothese für Gefäße: a) innere; b) äußere
Bsp. 83. Natürliches Licht im Sitzungssaal des Parlaments. Von der Mitte der Aussichtsplattform in der Kuppel des Reichstags aus gesehen (s.a. Beisp. 31) hängt unterhalb des Scheitelpunkts ein großer Konus 3, der mit 360 Spiegeln ausgestattet ist, die das Tageslicht direkt in den Sitzungssaal reflektieren (Abb. 12.13). Physikalischer Widerspruch: Licht muss da sein, (permanent, da die Spiegel stationär sind) und es soll nicht sein (an Tagen mit starker Sonneneinstrahlung, um Personen, die im Saal sitzen nicht zu blenden). Hier dominiert offensichtlich eine räumliche und strukturelle Ressource. Wenn wir die Anlage 7 zurate ziehen, finden wir eine ganze Reihe passender Navigatoren, deren Wirkungen wir uns bei der Beschreibung der Kontrolllösung ansehen wollen: um überschüssiges Sonnenlicht von den Spiegeln abzulenken (05 Ausgliedern: den störenden Teil des Lichts ausgliedern; 12 Lokale Eigenschaft: jedes Teil muss unter bestmöglichen Bedingungen arbeiten - die Spiegel) ein vorher installierter Schirm (18 Vermittler: zeitweise ein anderes Objekt einbeziehen;
190
Klassische Navigatoren des Erfindens des A-Studios
28 Vorher untergelegtes Kissen und 39 Vorherige Wirkung: Havariemaßnahmen und Ge2 1 genwirkungen müssen vorher geplant werden), der von der Form dem oberen Teil der Kuppel ähnelt (22 Sphäroidalität: von ebenen Flächen zu sphärischen Flächen übergehen) und um den Konus herum installiert wird, mit Spiegeln in der Ausgangsposition 1 bis zur Endposition 2, entsprechend der Bewegungsrichtung der Sonne (07 Dynamisieren: die Charakteristika des Objekts müssen bei jedem Arbeitsschritt optimal sein, das Objekt 3 muss beweglich gemacht werden; 22 SphäroiAbb. 12.13. Natürliche Beleuchtung dalität: zu einer Rotationsbewegung übergedes Sitzungssaals hen; 39 Übergang in eine andere Dimension: Übergang zu einer räumlichen Bewegung). Die Beschreibung der Navigatoren wurde absichtlich in die Lösungsbeschreibung integriert, um detailliert die Arbeitsweise der Navigatoren im Kontext der gesamten Lösung verstehen zu können. Dafür muss die Lösungsbeschreibung mehrmals durchgelesen und bei jedem hervorgehobenem Fragment Pausen für das Nachdenken gemacht werden, solange bis die gesamte Beschreibung in einem Zug verständlich ist. Bsp. 84. Eine Gasturbine der Firma SIEMENS. Eine kurze Beschreibung der Problemsituation. In jedem Nachschlagewerk kann man lesen, dass für alle Turbinen, die in Wärmekraftwerken eingesetzt werden, die wichtigste Kennziffer für deren Effektivität ihr Wirkungsgrad ist. Diese Kennziffer ist relativ höher, wenn es sich um Großturbinen handelt. Jedoch wachsen mit der Vergrößerung der Turbinen auch die Probleme der Zuverlässigkeit und Lebensdauer. In erster Linie entsteht dieses Problem durch die relativ kurze Lebensdauer der Turbinenschaufeln, des Hauptelements, das der Temperatur- und mechanischen Belastung des heißen Gasstrahls ausgesetzt ist. Etappe 1. Diagnostik. Der Grund für die geringe Lebensdauer der Turbinenschaufeln besteht darin, dass jede Schaufel extremen mechanischen und thermischen Belastungen ausgesetzt ist. Wobei die Belastung schlagartig und zyklisch erfolgt. Die Schlagbelastung kann durch zerstörerische Resonanzschwingungen hervorgerufen werden. Thermozyklische Belastungen führen zu einer beschleunigten Materialermüdung der Schaufeln. Aus diesem Grund muss die Turbine oft außer Betrieb gesetzt werden, um die Schaufeln reparieren zu können, was sich natürlich auch negativ auf den Output der Turbine auswirkt. In den bisherigen Konstruktionen (Abb. 12.14) gab es zwei symmetrisch angeordnete Brennkammern, in der jeweils eine bestimmte Anzahl von Brennern installiert war (z.B. je 8). Wenn zwei oder drei Brenner außer Betrieb gesetzt wurden, Abb. 12.14. Schema des musste die ganze Turbine auch abgeschaltet werden. Prototyps der Turbine
12 Modelle für die Lösung physikalischer Widersprüche
191
Das Abschalten war wegen des niedrigen Wirkungsgrades und der Gefahr des Entstehens schädlicher Vibrationen erforderlich. Wenn die Brennkammern in Funktion sind, drücken die Verbrennungsprodukte auf die Schaufeln und unterstützen so die Drehbewegung der Turbine. Es ist klar, dass die Schaufeln direkt hinter den Brennkammern einem maximalen mechanischen und thermischen Schlag ausgesetzt sind. Dann jedoch sinkt der Druck auf die Schaufel und ihre Temperatur, bis sie dann wieder in den Bereich der anderen Brennkammer gelangt. Und das zweimal während einer Umdrehung der Turbine. Etappe 2. Reduktion. Operative Zone ist die Arbeitsoberfläche der Schaufel. Aus der Analyse beider Versionen der physikalischer Widersprüche (Abb. 12.15) ist ersichtlich, dass das ideale Endresultat darin bestehen könnte, dass die Verbrennungsprodukte bei gleichbleibender Temperatur einen permanenten Druck auf die Schaufel ausüben! Des Weiteren lässt sich aus der Analyse der Ressourcen erkennen, dass der Energiefluss (der Druck der Verbrennungsprodukte) nicht permanent ist, was eben nicht dem idealen funktionalen Modell entspricht. Folgerichtig kann man die Lösung dahingehend suchen, dass der Aufbau der Turbine mit den Anforderungen eines idealen Endresultats koordiniert werden muss. a) Fm - Modell Schaufel b) Ft - Modell Schaufel
muss sich unter einer periodischen Schlag- und mechanischen Belastung befinden, da das von der Konstruktion so vorgeben ist. muss sich unter einer ständigen mechanischen Belastung befinden, ohne Schlagbelastung, da das die Lebensdauer der Turbine erhöht. muss sich unter einer schlagartigen thermischen Belastung befinden, da das von der Konstruktion so vorgeben ist. muss sich unter einer ständigen thermischen Belastung befinden, ohne Schlagbelastung, da das die Lebensdauer der Turbine erhöht.
Abb. 12.15. Modelle des physikalischen Widerspruchs für das Beispiel 84
Jedoch ist es zu diesem Zweck unumgänglich, Ressourcen zu suchen, die sich nicht an der Oberfläche der Schaufel befinden, sondern in einer größeren operativen Zone. So, z.B. im Bereich des Funktionsraums, in dem sich die Schaufeln befinden. Zu den wichtigsten Ressourcen gehören: räumliche - der gesamte Raum um die Turbine herum, inklusive ein Teil des Turbinenkörpers, der sich in unmittelbarer Nachbarschaft zum Funktionsraum der Turbine befindet (er könnte mit irgendwelchen Geräten oder Anlagen bestückt werden); zeitlich – die Zeit der Bewegung der Schaufeln zwischen den Brennkammern (diese Zeitspanne sollte so gering wie möglich sein). Etappe 3. Transformation. Entsprechend dem Katalog 7 (s. Anlage) kann man den vorliegenden Widerspruch nur mit Hilfe von Transformationen im Raum, in der Zeit und/oder in der Struktur lösen. Wollen wir nun mal ein „Portrait“ der Lösung in allgemeiner Form erstellen, indem wir uns auf diese Empfehlungen stützen: 19 „Übergang in eine andere Dimension“: Verwenden einer mehrstöckigen Bauweise, Verwendung von Seiten- und anderen Flächen; 34 „Matrjoschka“: ein Objekt im Hohlraum eines anderen unterbringen;
192
Klassische Navigatoren des Erfindens des A-Studios
02 „Vorherige Wirkung“: Objekte so anordnen, dass sie schneller in Funktion treten können; 40 „Ununterbrochene nützliche Funktion“: Leerlauf und Unterbrechungen beseitigen, alle Teile eines Objekts müssen ununterbrochen unter voller Belastung arbeiten; 03 „Zerteilen“: ein Objekt in Teile zerlegen; 12 „Lokale Eigenschaft“: Jedes Objekt soll seine Funktion unter den bestmöglichen Bedingungen erfüllen. Lösungsidee (Abb. 12.16): die Brennkammern, die einen konzentrierten Schlag verursachen, müssen aufgeteilt werden (nach Navigator 03); es können auch einzelne Brenner verwendet werden, die sich in der Umgebung des Funktionstraums der Turbine befinden (nach Navigatoren 19 und 34); das verringert die Zeit der Bewegung der Schaufeln zwischen den Brennkammern (nach Navigatoren 02 und 40), es verringern sich die Abb. 12.16. Schema der Temperaturschwankungen und es sinkt die Kraft des neuen Turbine mechanischen Schlags (nach Navigator 12). Bsp. 85. Flugzeug des XXI. Jahrhunderts? Die Luft trägt nicht nur Flugzeuge, sondern sie bremst auch ihre Bewegung. Außerdem steigt ja der Luftwiderstand in dem Maße, wie sich die Geschwindigkeit des Flugzeuges erhöht. Die Energie des Brennstoffes wird hauptsächlich für die Verdrängung der Luftmoleküle verwendet, die dem Flugzeug entgegenwirken (vergleichen Sie es bitte noch einmal mit dem Beispiel 47 Schiff mit Unterwasserflügeln). Dabei erhitzt die Luft in der Atmosphäre den Bug des Flugzeugs auf praktisch unzulässige Temperaturen. Deshalb müssen Flugzeuge mit Ultraschallgeschwindigkeit wie z.B. 10 M (die Machzahl gibt an, um wie viel mal die Überschallgeschwindigkeit überstiegen wird) auf große Höhen mit dünnerer Luft gebracht werden, oder sogar nahe an den Weltraum. Jedoch entstehen auf diesem Weg fundamentale Probleme bei der Entwicklung von Ultraschallflugzeugen: 1) Konstruktion von Hochgeschwindigkeitsmotoren; 2) Energieversorgung der Bordsysteme; 3) Brennstoff für die Motoren; 4) Überhitzung der Bugteile. Die Lösung dieser Probleme wollen wir anhand des Re-Inventings des Ultraschallflugzeugs Newa untersuchen. Seine Konzeption wurde in Sankt Petersburg von einem Ingenieurteam entwickelt. Bei Flügen mit Ultraschallgeschwindigkeit werden Gleichstrom-Luftstrahlmotoren (Abb. 12.17) verwendet. Ihr Arbeitskörper ist die Luft 1, die in den Motor während der Bewegung über einen Luftansaugschacht eintritt und über eine Düse in Form von glühendem Gas 2 austritt. Im Motor wird Brennstoff verbrannt 3, was zur Erhitzung des Arbeitskörpers führt. Die erhitzte Luft dehnt sich aus und wird zusammen mit den Verbrennungsprodukten aus den Düsen herausgeschleudert, was dazu führt, dass das Flugzeug nach vorn gestoßen wird. Problem: Erreichen von Ultraschallgeschwindigkeiten des Austritts des Arbeitskörpers aus dem Motor. Die Lösung war gewöhnlich mit der Nachverbrennung 4 des Ausgangsgemisches verbunden. Das hat aber bei Geschwindigkeiten von 10M und mehr keine Perspektive.
12 Modelle für die Lösung physikalischer Widersprüche
193
Außerdem muss die Luft vor der Brennkammer 5 eine hohe Dichte haben, was durch die spezielle Form des Luftansaugschachtes des Motors 6 (Diffusor) gewährleistet wird. Jedoch führt eine Verdichtung der Luft durch die Abb. 12.17. Arbeitsprinzip des Gleichstrom- Schaffung eines mechanischen Hindernisses vom Wesen her zu einer Luftstrahlmotors Abbremsung des Flugzeugs. Kommen wir zu den Modellen der physikalischen Widersprüche: 1. Die Kompression der Luft vor der Brennkammer des Motors muss sein, damit der Motor arbeiten kann, und die Kompression soll nicht sein, damit das Flugzeug nicht gebremst wird; 2. Die Beschleunigung des Gasausstoßes aus der Düse muss sein, damit Ultraschallgeschwindigkeit erreicht werden kann, und die Beschleunigung soll nicht sein, da das dem Verfahren für die Beschleunigung widerspricht (Nachverbrennung des Gemischs). Die Existenz gegensätzlicher Prozesse am „Eingang“ und „Ausgang“ des Motors verweist hier deutlich darauf, dass es sinnvoll ist, eine Strukturrichtung 3.2 aus dem Katalog Fundamentale Transformationen und Ⱥ-Kompakt-Standards, sowie die Richtungen 3.4 und 4.5 auszuwählen, da hier ganz deutlich stofflichenergetische Ressourcen beteiligt sind. Die unerfüllbaren Anforderungen (Kompression der eintretenden Luft und Beschleunigung des Gemischs) zeigen, dass ein neues Funktionsprinzip für den Antrieb gefunden werden muss. Hier kommen wir zum ersten Mal zu einem weiteren Instrument der TRIZ – zu den physikalischen Effekten (s. folgender Abschn. 13). In den Positionen 5, 6, 12, 17 und 28 der Anlage 8 finden wir ähnliche Hinweise zur Verwendung von magnetischen Feldern bei Gasen. Wenn wir uns dann in technische Lite1 ratur vertiefen würden, könnten wir recht schnell auf magnetohydrodynamische Generatoren (MHD-Generatoren) kommen. Obwohl sie eigentlich für die Erzeugung von elektrischem Strom verwendet werden (Abb. 12.18). Abb. 12.18. Funktionsprinzip des MHDGehen wir davon aus, dass am EinGenerators gang in den Motor die Luft ionisiert ist. Teilchen ionisierter Luft 1 erzeugen, wenn sie durch das Magnetfeld des MHDGenerators „fliegen“, in den Spulen elektrischen Strom. Jedoch werden dabei die ionisierten Teilchen gebremst! Wenn ein solcher MHD-Generator an den Eingang des uns bekannten Gleichstrom-Luftstrahlmotors gestellt wird, so kann realisiert werden, dass der Eingangsstrom der Luft verlangsamt wird. Dabei müsste die Geschwindigkeit des Flugzeuges nicht reduziert werden und man hätte zusätzlich noch ein Kraftwerk an Bord! Das ist ein gutes Beispiel für die erfolgreiche Anwendung des Navigators 21 Schaden in Nutzen umwandeln: Verwendung schädlicher Faktoren, speziell, schädliche Einwirkungen der Umgebung, um einen positi6
1
3
5
4
2
194
Klassische Navigatoren des Erfindens des A-Studios
ven Effekt zu erhalten. Der MHD-Generator wird für die Verlangsamung der Luft benötigt, und wir haben ein Kraftwerk an Bord bekommen! Das Problem Nr. 2 wurde gelöst. Wie aber lässt sich der Ausgangsstrom des Gases beschleunigen? Hier haben die Konstrukteure ganz klar den Navigator 11 Entgegengesetzt angewendet: sie leiteten einen ausreichenden Strom in die Spulen des MHD-Generators, und das so entstandene starke Magnetfeld beschleunigte die Bewegung des aus der Brennkammer ausströmenden ionisierten Gases auf ein Vielfaches. Der MHD-Generator wurde zu einem MHD-Beschleuniger, oder, in diesem Fall, zu einem MHDAntrieb! Die Kontrolllösung: es wurde ein neuer Antrieb für Ultraschallflugzeuge entwickelt, der zweimal das Prinzip des MHD-Generator verwendet – direkt und in seiner Umkehrung (Abb. 12.19). Als Arbeitskörper muss ionisierte Luft 2 1 verwendet werden, und dann kann ein 3 sich ausdehnendes ionisiertes Gas 2 1 (Verbrennungsprodukte) zusätzlich im Magnetfeld des MHD-Generators 3 beschleunigt werden bis hin zu 25M. Das heißt bis auf die erste kosmische Geschwindigkeit. So bilden MHD-GeneraAbb. 12.19. Funktionsprinzip des tor und MHD-Antrieb in einer techniAntriebs für Ultraschallflugzeuge schen Lösung ein hocheffektives Paar – ein System und Antisystem. Das Problem Nr. 1. ist gelöst. Sie haben sicher 2 bemerkt, dass eine Frage offen geblie3 1 ben ist: woher kann man denn für einen solchen Antrieb die ionisierte Luft herbekommen? Wir haben es also erneut mit einem bestimmten physikalischen Widerspruch zu tun: ionisierte Luft muss da sein, (für die Arbeit des Antriebs) und sie kann nicht da sein (da Abb. 12.20. Ionisierung von Luft Luftmoleküle im normalen Zustand durch Laserstrahlschlag neutral sind). Wir müssen ganz klar weiter mit der Empfehlung 4.5 aus der Anlage 6 arbeiten: einen physikalisch-chemischen Übergang verwenden, der mit der Ionisierung (der Luft) verbunden ist. Sehen wir in Nachschlagewerken nach und finden, dass eines der passendsten technischen Lösungen für die Ionisierung von Luft die Verwendung eines Laserstrahlschlags sein kann. Kontrolllösung: es kann ein ionisierter Luftstrahl durch Lasereinwirkung vor dem Luftansaugschacht des Motors erzeugt werden (Abb. 12.20). Die Laserstrahlung 2 verwandelt neutrale Luftmoleküle 1 in negativ geladene Ionen 3. Der ionisierte Luftstrom 3 gelangt in den ersten MHD-Generator, um gebremst zu werden und im Generator elektrischen Strom zu erzeugen. Ein relativ geringer Teil des Stroms vom MHD-Generator wird erneut für die Versorgung des Lasers verwendet.
12 Modelle für die Lösung physikalischer Widersprüche
195
Betrachten wir nun das Problem Nr. 3 – Brennstoff. Hauptbrennstoff für Düsenmotoren ist Kerosin. In der Brennkammer wird das Kerosin erhitzt, verdampft und es beginnt der aktive Prozess der Oxydation mit Sauerstoff (Verbrennung). Wir sehen, dass ein Teil der Energie für die Erhitzung des Brennstoffes verbraucht wird. Formulieren wir den physikalischen Widerspruch: der Brennstoff muss vorher erhitzt werden, damit er für die folgende Verbrennung verdampfen kann, und der Brennstoff soll nicht erhitzt werden, damit für die Erhitzung keine Energie in der Brennkammer verbraucht wird, und somit auch die Temperatur der Verbrennungsprodukte höher ist. Eine Systemanalyse der Funktionsbedingungen und der Struktur der ganzen Maschine zeigt, dass man sich erneut den eben erst verwendeten Empfehlungen 3.2 und 4.5 zuwenden muss: Verbinden eines Systems und Antisystems mit Steuerung der Prozesse auf dem Mikroniveau! Im Flugzeug muss eine Energiequelle für die Erhitzung des Brennstoffes sein. Schauen Sie sich noch einmal die Anfangsbeschreibung der Probleme für die Entwicklung einer solchen Apparatur an, und vielleicht finden Sie eine kostenlose Wärmeenergiequelle! Man könnte das Kerosin verwenden, um den überhitzten Bug des Flugapparates zu kühlen! Beachten Sie – hierbei handelt es sich erneut um eine interessante Umsetzung des Navigators 21 Schaden in Nutzen umwandeln. Kontrolllösung: der Flugzeugrumpf 1 wird am Bug mit zwei Wänden ausgestattet, zwischen denen Kerosin zirkuliert 1 und entnimmt der Außenwand Wärme (Abb. 12.21). Es wurden gleichzeitig die Probleme Abb. 12.21. Kühlung des Bugteils des Nr. 3 und Nr. 4 gelöst. Apparates mit Vorerhitzung des Kerosins Gute Lösungen haben immer auch noch positive Supereffekte, das sind unerwartete und nicht eingeplante Erscheinungen! 1. Die kinetische Energie der einströmenden Luft wurde von einem schädlichen zu einem nützlichen Faktor, indem sie die Arbeit des Bordkraftwerks mit einer Kapazität bis zu 100 Megawatt sichert! Diese Energiemenge könnte ausreichen eine Kleinstadt zu versorgen. Einen Teil der Energie verbraucht der Laser und einen weiteren Teil der MHD-Beschleuniger. Die restliche Energie kann für die Bereitstellung anderer Funktionen verwendet werden, die mit den Aufgaben eines Flugzeugs zu tun haben, sowie für die Verrichtung nützlicher Arbeiten: Verbrennung von Weltraummüll, Verkleinern von Ozonlöchern u.ä. 2. Die Verwendung keiner mechanischen Systeme für die Ionisierung und Beschleunigung des Arbeitskörpers, sondern einer speziellen Struktur elektromagnetischer Systeme, die aus einem System und Antisystem bestehen, ermöglichen es, die erste kosmische Geschwindigkeit beim Flug zu erreichen! Die Energie wird aus dem ionisierten Strom gezogen und zur Ionisierung und Beschleunigung dieses (erhitzten) Stroms gelenkt. 3. Das Problem der Kühlung des Flugzeugrumpfes wurde ideal gelöst, ohne ein spezielles System zu entwickeln! Das bedeutete keine Probleme und auch keine
196
Klassische Navigatoren des Erfindens des A-Studios
Ausgaben für die Lösung des Problems! Der Flugzeugrumpf wird vom zirkulierenden Kerosin gekühlt, dessen Erwärmung die Effektivität der Arbeit des Antriebs erhöht! 4. Ein völlig neuer Supereffekt: die ionisierte Luft gelangt nicht nur in den Antrieb, sie umströmt auch das Flugzeug, was genutzt werden kann, um eine zusätzliche Auftriebskraft zu schaffen. Dabei wird mit Hilfe von Elektromagneten der Widerstand der Luftbewegung unter dem Flugzeug erhöht und über dem Flugzeug verringert! 5. Zum Schluss noch ein besonderer Effekt: da zum Brennstoff außer dem Kerosin auch Wasser gehört, wird bei einer thermochemischen Aufspaltung unter Mitwirkung eines Katalysators aus dem Wasser freier Wasserstoff freigesetzt, was dazu führt, dass die Verbrennung des Brennstoffs 5-mal so schnell abläuft wie in einem Motor mit flüssigem Wasserstoff! In Abb. 12.22 finden Sie eine allgemeine Beschreibung des Ultraschallfluggeräts Newa, wie es von seinen Entwicklern vorgestellt wurde, und in der Abb. 12.23 sehen Sie ein Schema und die Zeit der Flüge des Apparates Newa zwischen verschiedenen Punkten der Erde. 2 h 14 min
1 h 58 min 1 h 12 min
2 h 06 min 2 h 12 min Abb. 12.22. Allgemeine Ansicht des Ultraschallflugapparats Newa
Abb. 12.23. potenzielles Fluglinienschema der Newa
Als Abschluss dieses Abschnitts sollte darauf hingewiesen werden, dass die angeführten Beispiele vom Autor vereinfacht und adaptiert wurden, damit sie einem möglichst breiten Leserkreis verständlich sind. Sie wurden ausschließlich zu Lehrzwecken verwendet, das bedeutet, dass sie nur Illustrationen der TRIZInstrumentarien sind. Und noch etwas wichtiges: in der TRIZ wird empfohlen, Beispiele aus verschiedenen Wissensbereichen zu verwenden – das hilft, die psychologische Trägheit zu überwinden, welche durch das eingeschränkte professionelle Wissen, Interessen und Traditionen bedingt ist. Dieser Empfehlung wollte der Autor auch Folge leisten. Last but not least: die TRIZ-Instrumentarien funktionieren nur auf der Basis professionellen Wissens gut, und wenn man ein bestimmtes Niveau ihrer praktischen Anwendung erreicht hat. Diesen Hinweis sollte man immer im Auge behalten und nicht verzagen, wenn die ersten Versuche der selbstständigen Anwendung der TRIZ-Instrumente nicht so beeindruckend erscheinen, wie einige der hier aufgeführten Beispiele. Dieses Buch hat Ihr Denken bereits verändert, es hat Ihr intellektuelles Rüstzeug verstärkt! Es ist einfach nur so, dass die Aufgabe, die Sie sich jetzt stellen, bedeutend komplizierter sind, als es früher war, oder es war als Sie die TRIZ-Instrumente noch nicht kannten. Und diese Aufgaben können in einer vernünftigen Zeit und mit hervorragenden Ergebnissen nur mit der TRIZ gelöst werden!
13 Modelle für die Suche neuer Funktionsprinzipien
197
13 Modelle für die Suche neuer Funktionsprinzipien 13.1 Kataloge technischer Effekte Ganz allgemein kann man als Effekt eine funktionale Abhängigkeit zwischen zwei Prozessen bezeichnen. Das bedeutet, dass Veränderungen eines Prozesses, der als Ursache bezeichnet wird zur Veränderung eines andern Prozesses führen, der als Folge bezeichnet wird. Die eigentliche funktionale Verbindung wird als Effekt bezeichnet. Der Prozess wird in der Regel mit bestimmten Parametern, wie z.B. Druck, Temperatur, Geschwindigkeit, Beschleunigung usw. bezeichnet. Dann ist die Veränderung des Werts eines Parameters auch die Realisierung des Prozesses. Im äußersten Fall ist es auch das unveränderte Beibehalten eines Parameters. In der Technik verwendet man oft ein Modell, das einen Effekt mit einem bestimmten technischen System (Element) verbindet, das diesen Effekt realisiert. So führt z.B. das Leiten von Strom durch eine metallische Spirale zu einer Erhitzung der Spirale und zur Abstrahlung von Wärmeenergie (der Einfachheit halber wollen wir hier andere Effekte unberücksichtigt lassen, die in diesem einfachen System vorhanden sind). Das heißt der Strom ist der Grund für das Entstehen einer Wärmestrahlung (Folge). In technischen Systemen wird der Prozess Ursache – oft als Eingangsprozess bezeichnet, und der Prozess Folge – als Ausgangsprozess. Dementsprechend nennt man die Gesamtheit der Elemente des Systems, die unmittelbar mit dem Eingangsprozess in Wechselwirkung stehen, Eingang des Systems, und die mit dem Ausgangsprozess wechselwirkenden Prozesse – Ausgang des Systems. Der Effekt wird mit Wirkung, Funktion, Funktionieren, Umwandlung und anderen Termini bezeichnet. Wenn also im aufgeführten Beispiel in den Eingang des Heizelements elektrischer Strom geleitet wird, und aus dem Ausgang ein Wärmefeld entnommen wird, vollzieht dabei das Heizelement die Umwandlung des Stroms in Wärmeenergie. In den Bezeichnungen des Systems (der Elemente) wird in der Regel die physikalische Hauptwirkung verankert, die von diesem System (Element) realisiert wird. Das aufgeführte Beispiel könnte als „elektrisches Heizelement“ bezeichnet werden. Das Wichtigste an dieser Bezeichnung ist die Verankerung des Wirkungsprinzips des Elements. Man könnte auch die Bezeichnung „elektrische Heizspirale“ verwenden, wenn neben dem Wirkungsprinzip auch der Aufbau (Form oder Konstruktion) des Elements hervorgehoben werden soll. Jetzt kann man in allgemeiner Form den technischen Effekt als beliebige Wirkung, Umwandlung, Erscheinung oder Funktionsweise definieren, die als Wirkungsprinzip eines technischen Systems für die Entwicklung des Systems selbst verwendet wird. So kann man z.B. sagen, dass sich das Wirkungsprinzip des betrachteten Heizelements auf der Umwandlung der Energie des elektrischen Stroms in Wärmeenergie mit Hilfe des Leitens von Strom durch eine metallische Spirale begründet. Zusätzlich können Parameter der Umwandlung, des Materials usw. aufgeführt werden, d.h. – die Bedingungen der Arbeit eines solchen Systems. Man unterscheidet Effekte mit einer Funktion und Effekte, die aus mehreren Funktionen bestehen, zusammengesetzte (multiprozessuale und multiparametrische).
198
Klassische Navigatoren des Erfindens des A-Studios
Die Funktionsweise eines technischen Systems stellt eine komplizierte Wechselwirkung einer Vielzahl von Effekten dar. Für die annähernde Klassifikation und Anwendung wurden Kataloge physikalisch-technischer Effekte zusammengestellt (d.h. physikalischer Erscheinungen, die in der Technik Verwendung fanden), chemisch-technischer, bio-technischer u.a. Um die Bezeichnung der Effekte und Kataloge abzukürzen wird oft der Zusatz „technisch“ weggelassen und man sagt, z.B. „Katalog physikalischer Effekte“, „Katalog geometrischer Effekte“ usw. In der Regel bildete die Grundlage herausragender Erfindungen fast immer die erstmalige Nutzung eines bis dahin nicht bekannten Effekts, der gewöhnlich als Entdeckung bezeichnet wird, oder es handelte sich um eine unerwartete, neue Nutzung eines bekannten Effekts (Kombinationen mehrerer Effekte). Erinnern wir uns nur an die Entwicklung der Radiotechnik, bildlich gesprochen auf der Grundlage des Effekts der elektromagnetischen Strahlung des Stücks eines metallischen Leiters, wenn durch ihn ein elektrischer Strom fließt (s. Abschn. 1 Erfindung). Selbst Heinrich Hertz konnte nicht vorhersehen, dass seine Entdeckung nicht nur praktisch angewendet werden wird (er dachte, dass es nicht realistisch sei, wegen der technischen Probleme, die unüberwindbar schienen), sondern bald schon eine grandiose Revolution in der Entwicklung der Zivilisation begründen würde. In der TRIZ wurden auf der Grundlage der Analyse Hundert Tausender Erfindungen Kataloge für die technische Anwendung einiger Hundert Effekte zusammengestellt. Für jede Anwendung wurde der Inhalt des Effekts zusammen mit seiner technischen Realisierung beschrieben (Abb. 13.1). Kennkarte des technischen Effekts „Lumineszenz“ Beschreibung
Lichtstrahlung von Körpern, die zusätzlich zur Temperaturstrahlung vorhanden ist und nach Unterbrechung der Wirkung ihres Erregers eine Periode hat, welche die von Lichtwellen übersteigt.
Klassi- Von der Art der Anregung unterscheidet man, z.B. Foto-, Kathoden-, Elektro-, fikation Tribo-, Röntgen-Lumineszenz usw. Anwen- 1. Abbildung von Informationen – unterschiedliche Fernsehschirme. 2. Feststellen von Defekten: Defektoskopie, Feststellen des Abfließens von Stofdung fen. 3. Aufdeckfunktionen: Lumineszenzanalyse in der Kriminalistik, Medizin, Geologie, für den Fälschungsschutz von Geldscheinen und Dokumenten. 4. Messfunktionen: Untersuchung mit Sensoren von Materialeigenschaften, deren Lichtstärke und Leuchtspektrum von Parametern der Stoffe und Felder abhängen – von chemischen Zusammensetzungen, Temperatur, Druck usw. 5. Beleuchtung: Leuchtdioden, lumineszierende Lampen (mit Tageslicht), elektro-lumineszierende Kondensatoren u.a. Abb. 13.1. Kennkarte des technischen Effekts
Die Modelle technischer Effekte fanden erst dann weite Verbreitung, als die bahnbrechende Software Invention Machine auf dem Markt erschien, später dann wurde eine gewaltige Datenbank mit Erkenntnissen zu technischen Effekten entwickelt und wird in der Software TechOptimizer ständig erweitert (s. Abschn. 21.1).
13 Modelle für die Suche neuer Funktionsprinzipien
199
Praktische Anwendung fanden auch verkürzte Kataloge (Anlage 8-10), in denen für häufig auftretende technische Wirkungen physikalische, chemische oder geometrische Effekte aufgeführt sind (entsprechend dem Zweck des Katalogs), für die es Beispiele einer effektiven technischen Umsetzung gab. Die Beispiele selbst werden hier nicht aufgeführt, da davon auszugehen ist, dass der Nutzer selbst in entsprechenden Nachschlagewerken nachsehen kann, wenn er die Bezeichnung des entsprechenden Effekts nicht kennt, den er als mögliches Wirkungsprinzip ausgewählt hat. Dieses einfache und praktische Herangehen wurde auch in der Software PentaCORE umgesetzt (s. Abschn. 21.3), in der die Funktion des Auffindens von Suchsystemen für eine Reihe von speziellen und universellen Nachschlagewerken, die im Internet zugänglich sind, automatisiert ist. Es sollte hier auch auf die Verbindung von Effekten mit anderen Transformationen hingewiesen werden. So ist es völlig offensichtlich, dass physikalische Effekte die Grundlage für solche Navigatoren bilden wie 01 Veränderung des Aggregatzustands, 04 Ersatz der mechanischen Materie, 06 Verwendung mechanischer Schwingungen und viele andere. Chemische Effekte bilden die Basis für Verfahren wie 15 Verwerfen und Regeneration von Teilen, 23 Verwendung inerter Medien, 26 Verwenden von Phasenübergängen u.a. Auf geometrische Effekte stützen sich Navigatoren wie 10 Kopieren, 11 Entgegengesetzt, 19 Übergang in eine andere Dimension, 22 Sphäroidalität, 34 Matrjoschka u.a. Als recht nützliche, wenn auch aufwendige Übung können Sie ja selbst versuchen, die entsprechenden Beziehungen technischer Basiseffekte mit komplexen und fundamentalen Transformationen nachzuvollziehen. Als Abschluss dieses Abschnitts sollte festgestellt werden, dass die technischen Basiseffekte im Idealfall die gesamte Summe des wissenschaftlich-technischen Wissens widerspiegeln sollten, das von der Menschheit gesammelt wurde. Solche Systeme wie TechOptimizer, CoBrain und Knowledgist (s. Abschn. 21.1) entwickeln sich genau in diese strategische Richtung. Jeder von uns verfügt nur über einen Teil dieses Wissens. Dazu gehören universelle Kenntnisse, die in der Schule erworben wurden, spezielles Wissen, aus unserer Hochschulausbildung, und Kenntnisse, die wir uns ständig bei unserer selbstständigen Arbeit mit wissenschaftlich-technischen Informationsquellen aneignen. Es ist klar, dass wir nur einen relativ kleinen Teil dieses Gesamtwissens verwenden, eben nur den, der in unmittelbarem Verhältnis zu unserem Bereich stehen. Gleichzeitig haben wir auch bemerkt, dass nicht wenige herausragende Erfindungen entstanden sind, wenn dabei auch Wissen aus anderen Bereichen hinzugezogen wurde. Deshalb ist es sinnvoll, sein kreatives Potential zumindest durch Studium vorhandener Datenbanken technischer Effekte und der Schlüsselideen, zu erweitern, auf denen Lösungen in anderen Bereichen der Wissenschaft und Technik basieren. 13.2 Anwendungsprinzipien für technische Effekte Transformationen mit Hilfe technischer Effekte beruhen auf dem Prinzip der Analogie oder auf der direkten Realisierung der geforderten Funktion durch bekannte technische Lösungen (mit Korrekturen für die konkreten Bedingungen der neuen
200
Klassische Navigatoren des Erfindens des A-Studios
Anwendung). Alle technischen Systeme sind eigentlich nichts anderes, als bestimmte Kombinationen technischer Effekte, die in entsprechenden Konstruktionen umgesetzt wurden. Dabei werden Kombinationen, die von Nützlichkeit und absoluter Neuartigkeit gekennzeichnet sind, als Erfindungen anerkannt. Die ganze Vielfalt und alle Feinheiten der Arbeit mit technischen Effekten zu erfassen, ist eine nicht gerade einfache Aufgabe, selbst wenn sie durch Software unterstützt wird. Deshalb wollen wir im Folgenden nur einige Beispiele anführen, die als reine Illustration und Einführung in das äußerst vielfältige Instrumentarium technischer Effekte dienen sollen. Bsp. 86. Sind alle Nägel zylindrisch? Ein üblicher „zylindrischer“ Nagel dringt gut in Holz ein, kann sich aber unter Einwirkung von Temperatur und mechanischen Schwingungen lockern. Man kann sagen, dass das Holz selbst, das Einschlagen des Nagels „steuert“. Gehen wir in den Katalog Geometrische Effekte (Anlage 10) mit dem Ziel, passende Empfehlungen für die mögliche Veränderung des „Wirkungsprinzips“ des Nagels zu suchen. In Punkt 9 Verringerung der Steuerbarkeit finden wir die Empfehlung Ersatz runder Objekte durch vieleckige. Kontrolllösung: in Polen wird ein Nagel hergestellt, der einen dreieckigen Querschnitt hat, der besser, als ein üblicher Nagel mit rundem Querschnitt im Holz „sitzt“. Punkt 10 desselben Katalogs Erhöhung der Funktionsdauer, der Zuverlässigkeit enthält die Empfehlungen Veränderungen der Kontaktfläche und Spezielle Wahl der Form. Kontrolllösung: in Deutschland wird ein Nagel mit viereckigem Querschnitt hergestellt, der sich jedoch entlang seiner Längsachse symmetrisch zur Länge verdickt, so dass etwas ähnliches wie eine Holzschraube entsteht mit einer „Windung“, die der Länge der Schraube entspricht (anders gesagt: auf der Schraube bildet sich eine „Windung“ mit vier Strängen entsprechend der Anzahl der Ecken des Vielecks des ursprünglichen Querschnitts). Ein solcher „Nagel“ ist eine Zwischenkonstruktion zwischen dem glatten Nagel und der Schraube, er ist jedoch einfacher in der Produktion, als die Schraube, hält sich jedoch besser im Holz als ein glatter Nagel. Bsp. 87. Angenehmer ... Straßenlärm. Lauter, ununterbrochener und relativ monotoner Lärm von der Straße von dauerhaften Autoschlangen ermüdet und stört bei der Arbeit. Normale Jalousien senken ein wenig den Lärmpegel, das Monotone jedoch bleibt. Die Monotonie lässt sich durch das gleichmäßige Spektrum (Struktur) der Frequenz der akustischen Schwingungen, die vom Verkehrsstrom erzeugt werden, erklären. Wenden wir uns an den Katalog Physikalische Effekte (Anlage 8) und in Punkt 24 Schaffen einer vorgegebenen Struktur, Stabilisation der Struktur eines Objekts wählen wir den Effekt Mechanische und akustische Schwingungen. Aus der Physik ist bekannt, dass durch so genannte Frequenzfilter Veränderungen der Struktur des Spektrums eines komplizierten Schwingungsprozesses (darunter auch akustische) vorgenommen werden können. Diese Filter sind Vermittler und Wandler, die Schwingungen mit einer bestimmten Frequenz gut durchlassen, Schwingungen mit anderen Frequenzen jedoch nicht durchlassen oder abschwächen. Kontrolllösung: in England wurden Jalousien entwickelt, deren Konstruktion Poren mit unterschiedlicher Größe enthält und die Idee einer mechanischen
13 Modelle für die Suche neuer Funktionsprinzipien
201
Filtrierung akustischer Schwingungen so umsetzt, dass die durchlässigen Streifen der Filterkomposition in etwa dem Spektrum der Brandung am Meer entsprechen. Solche Geräusche rufen keine negativen Erscheinungen wie Ermüdung, Aufmerksamkeitsverluste usw. hervor. Bsp. 88. Kontrolle des Verschleißes von Motoren. Beim Verschleiß eines Motors erhöht sich die Anzahl von Mikroteilchen aus Metall, die ins Öl geraten, das die beweglichen Teile schmiert und kühlt. Folglich lässt sich der Grad des Verschleißes eines Motors anhand einer Bewertung der Menge dieser Metallteilchen im Öl einschätzen. Problem: wie kann man das Vorhandensein von Metallteilchen im Öl feststellen und wie ihre Menge bewerten? Wenn wir uns den Katalog Physikalische Effekte (Anlage 8) ansehen, fallen folgende Punkte auf: 5 Indikation und Lageveränderung eines Objekts und 22 Kontrolle des Zustands und der Eigenschaften im Raum. Da wir bereits die Anwendungsprinzipien für Zusätze nach den komplexen Transformationen kennen, können wir davon ausgehen, dass das aussichtsreich und nicht kompliziert ist im Vergleich zu anderen Empfehlungen. Deshalb kann man sich der Empfehlung zuwenden Zusetzen von „Markierungsstoffen“: die äußere Felder umwandeln (Luminophore) oder eigene Felder erzeugen (Ferromagnetika) und aus diesem Grund leicht aufzudecken sind. In Nachschlagewerken kann man noch mehr über die Anwendung der Lumineszenz finden, und versuchen, die dort gefundenen Beispiele für das zu lösende Problem zu interpretieren. Im vorliegenden Fall, wenden wir uns dem oben dargestellten Kennblatt des physikalischen Effekts Lumineszenz zu, und suchen dann in Nachschlagewerken detailliertere Informationen für den Punkt 4, um zu konkretisieren, wie genau die Lichtstärke und das Leuchtspektrum von Luminophoren von den Parametern der Stoffe und Felder – chemische Zusammensetzung, Temperatur, Druck usw. abhängen. Wir stellen fest, dass Metallteilchen die Stärke des Lumineszenzleuchtens verringert. Daraus entsteht die Idee für das Funktionsprinzip eines künftigen Messsystems: wenn dem Öl ein Luminophor zugesetzt wird, sinkt mit steigender Menge von Metallteilchen im Öl die Leuchtstärke des Luminophor. Das weist dann auf steigenden Verschleiß des Motors hin. Bsp. 89. Blüht eine Rose auf, die noch als Knospe geschnitten wurde? Um eine maximal große Zeitspanne bis zum Verkauf von Rosen nach dem Schnitt zu erreichen, kann man sie mit noch geschlossenen Knospen schneiden. Das ermöglicht, dass auch entfernte Verkäufer mit Rosen versorgt werden. Wie kann aber garantiert werden, dass die Knospen dann auch aufbrechen? Wir können nach einem passenden chemischen Effekt (Anlage 9) aus den Punkten 22 Kontrolle des Zustands und der Eigenschaften im Raum (speziell, der Reaktion unter Anwendung lichtreaktiver Stoffe oder Indikatorstoffe) und 23 Veränderung räumlicher Eigenschaften eines Objekts (Dichte, Konzentration usw.) suchen. Es ist verständlich, dass für die Klärung dieser Frage, Voruntersuchungen durchgeführt werden mussten. Es musste ein Indikator, ein Stoff oder Feld gefunden werden, dessen Anwesenheit in den Rosen zuverlässig helfen könnte, die Rechtzeitigkeit des Schnitts der Rosen zu bewerten. Die Ergebnisse ähnlicher Untersuchungen sind hinlänglich bekannt. So konnte festgestellt werden, dass Stärke, wenn sie mit Jod reagiert, die bekannte Blaufärbung hervorruft. Und Stärke ist ein
202
Klassische Navigatoren des Erfindens des A-Studios
grundlegendes Ressourcenkohlehydrat von Pflanzen. Wenn wir dann analog vorgehen, könnten wir überlegen, eine Färbeprobe an den Knospen der geschnittenen Rosen unter Einwirkung von Jod vorzunehmen. Kontrolllösung: Forscher von der Wageningen Agriculture University (Niederlande) haben festgestellt, dass die Rose nicht aufblüht, wenn der Stärkegehalt der Rosenknospe weniger als 10% ihrer Trockenmasse beträgt. Dafür reichen dann die Energieressourcen der Knospe, die in der Stärke stecken, nicht aus. Bsp. 90. Kann man ein neues „Wirkungsprinzip“ des Fußballs erfinden? Gehen wir zum Beispiel zum Punkt 5 Intensivierung eines Prozesses im Katalog Geometrische Effekte (Anlage 10). Von den Effekten dieses Punktes scheint folgende Empfehlung besonders interessant: Übergang von der Bearbeitung entlang einer Linie zu einer Bearbeitung entlang der Oberfläche und Exzentrizität (Verlagerung der Drehachse eines Körpers von der „Symmetrieachse“). Die erste Empfehlung kann man speziell mit dem physikalischen Effekt von Magnus aus Punkt 6 Steuerung der Verlagerung eines Objekts aus dem Katalog Physikalische Effekte (Anlage 8) assoziieren. Sicher wissen nur wenige, dass genau dieser Effekt streng wissenschaftlich das Verhalten eines Fußballs erklärt und beschreibt, der eine krumme Flugbahn hat. Nach dem Magnuseffekt, wirkt auf einen sich in einem entgegenströmenden Gas (Flüssigkeit) drehenden Körper eine Transversalkraft. Der Körper erfährt also eine zusätzliche Verschiebung in die Richtung, wo seine Drehrichtung mit der Richtung der relativen Bewegung des entgegenströmenden Gases (Flüssigkeit) übereinstimmt. Jetzt können Sie leicht analysieren, in welche Richtung sich der Fußball beim großartigen Tor drehte, als der Ball auf einer steilen Flugbahn die „Mauer“ der Verteidiger umflog, sich unerwartet drehte und ins Tor flog. Diesen Effekt (vielleicht ohne seinen Namen zu kennen) kennen auch Tennisspieler sehr gut. Volleyballspieler hingegen kennen einen anderen Effekt: nach einem Schlag gegen den Volleyball, beim Aufschlag, auf die Abdeckung der Öffnung des Luftventils, ändert der Ball nach einigen Flugmetern plötzlich seine Flugbahn, so als ob er zur Seite springen würde. Dieser Effekt lässt sich folgendermaßen erklären, am Anfang (beim Schlag) befindet sich das Luftventil unter der Hand des Aufschlägers. Dann aber während des Flugs verschiebt es sich etwas wegen der Verdrehung des Balls unter Einfluss der entgegenströmenden Luft, wodurch die zusätzliche Verlagerung des Schwerpunktes des Balls zu einer weiteren Abweichung (unerwarteter Sprung zur Seite) von der ursprünglichen „geraden“ Flugbahn führt. Kontrolllösung auf der Grundlage der Verbindung von Effekten: innerhalb des Balls wird ein kleines Gewicht an elastischen Bändern (oder auch anders) befestigt, das während des Ballflugs seine Lage innerhalb des Balls verändert und so den Schwerpunkt verschiebt. Der Ball wird auf recht merkwürdigen Flugbahnen fliegen, die unerwartete zufällige Abweichungen von der Normalrichtung der Bewegung haben. Ein solcher Ball kann bei Spaß-Spielen oder beim Training der Reaktionsgeschwindigkeit von Sportlern verwendet werden. Bei einem „eindrehenden Schlag“ gegen einen solchen Ball kommt zum Effekt der zufälligen Verlagerung des Schwerpunkts, der gleichzeitig auch Drehzentrum des Balls ist, noch der Magnuseffekt hinzu, und man wird noch unerwartetere Bewegungen des Balls beobachten können.
13 Modelle für die Suche neuer Funktionsprinzipien
203
Bsp. 91. Starke Lautsprecherbox ... auf der Handfläche. Der sperrigste Teil einer Audioanlage sind immer die Boxen, besonders die Lautsprecher für niedrige Frequenzen. Und je besser die Qualität einer Box ist, desto größer sind die Lautsprecher für niedrige Frequenzen. Das hängt damit zusammen, dass für die Wiedergabe niedriger Frequenzen ein Ausstrahlungselement (elektrodynamischer Lautsprecher) mit einem großen Durchmesser benötigt wird. Im Beispiel 86 haben wir bereits gesehen, wie der physikalische Effekt der Filtration von Schwingungen auf ungewöhnliche Art und Weise angewendet wurde. Wenn wir hier die Richtung weiterentwickeln, die mit der Schaffung von Schwingungen verbunden ist, können wir uns dem Effekt der Amplitudenmodulation zuwenden. Im Prinzip entspricht dieses Verfahren im Katalog physikalische Effekte dem Punkt 16 Energieübertragung: mechanische, Wärmeenergie u.a. Entsprechend dem Gesetz des Anstiegs der Idealität (s. Abschn. 15.1 TRIZ-Gesetze der Systementwicklung) würde für den aktuellen Fall das ideale Endresultat folgendes sein: qualitativ hochwertige Klänge mit niedriger Frequenz sind vorhanden, aber Boxen für seine Ausstrahlung sind nicht vorhanden. Eigentlich scheint es unmöglich einen solchen unglaublichen Widerspruch zu lösen. In der US-amerikanischen Firma ATC dachte man anderes und kam auf folgende Idee: modulieren von akustischen Schwingungen mit Niederfrequenz (Sprache, Musik) im Bereich von 20 – 20000 Hertz auf Schwingungen mit Hochfrequenz im Bereich von 200020 – 220000 Hertz und generieren von solchen hochfrequenten, für den Menschen nicht hörbaAbb. 13.2. Neue ren Schwingungen mit Hilfe piezoelektrischer UltraLautsprecherbox schallstrahler (Abb. 13.2). Dabei werden mit Hilfe anderer baugleicher Strahler, streng synchron, jedoch in der Gegenphase der ausgestrahlten Hauptultraschallträgerfrequenz von 200000 Hertz, aus der ersten Schwingung mit Hochfrequenz die Hauptbestandteile von 200000 Hertz „herausgelesen“. Und erneut erkennen wir das gemeinsame Wirken des Systems (Ultraschall mit einer bestimmten Frequenz) mit einem Antisystem (Ultraschall mit der gleichen Frequenz der Schwingungen, die jedoch in der Gegenphase ausgestrahlt werden). Das führt dazu, dass in einer technischen Lösung das „Unvereinbare“ „vereinbart“ und natürlich der Widerspruch beseitigt wurde! Bsp. 92. Ein ideales Wischtuch. Ein trockenes, aber auch ein mit Wasser angefeuchtetes, Tuch aus üblichem Stoff liefert oft bei der Reinigung von Fliesen, polierten Möbeln oder Oberflächen von Autos keine qualitativ hohen Ergebnisse. Dann weicht man auf die Anwendung chemischer Mittel aus. Nach dem Katalog Chemische Effekte (Anlage 9) entspricht das dem Punkt 6 Steuerung der Lageveränderung von Objekten, dem Punkt 20 Kontrolle des Zustands und der Eigenschaften von Oberflächen und dem Punkt 21 Veränderung von Oberflächeneigenschaften, und speziell den Empfehlungen Verwendung hydrophiler und hydrophober Stoffe und Verwendung oberflächenaktiver Stoffe. Die Verwendung chemischer Reinigungsmittel ist ökologisch gesehen bedenklich. Außerdem können sie zu Farbveränderungen von farbigen Oberflächen führen, oder können andere Schäden hervorrufen. Die Tücher selbst verschmutzen schnell, kommen dann auch
204
Klassische Navigatoren des Erfindens des A-Studios
in den Müll und vermehren so die Mengen an Haushalts- und Industrieabfällen. Das ideale geforderte Resultat: das Tuch entfernt vollständig (nimmt auf, schluckt, saugt auf usw.) Schmutz von der zu reinigenden Oberfläche und gibt den Schmutz leicht ab, es kann z.B. mit Wasser gereinigt werden (ohne Verwendung chemischer Mittel). Vom Wesen der Sache haben wir hier noch kein ideales Ergebnis, sondern einen Widerspruch auf funktionalem Niveau. Kehren wir an den Anfang zurück. Das Wasser auf dem Tuch spielt die Rolle eines „Mikroadsorbers“, der mechanisch Schmutzpartikel anzieht und festhält, und der Stoff des Tuchs spielt die Rolle des „Makroadsorbers“ und sogar des Adsorbers (bei Bedarf Termini nachschlagen!), der das Wasser in seinen Poren zwischen den Fäden zusammen mit dem Schmutz festhält. Das Problem besteht darin, dass der Schmutz mit dem Wasser in die Mikroporen der Fäden eindringt, und so nicht mehr mechanisch entfernt werden kann, durch einfaches Ausspülen. Versuchen wir jetzt den Ausgangswiderspruch auf dem „Mikroniveau“ darzustellen, z.B. in folgender Form: die Fäden (des Tuchs) müssen Wasser zusammen mit dem Schmutz aufnehmen und sollen aber den Schmutz nicht festhalten. Dieses Modell ist aber einfach nicht richtig! Nach der TRIZ müssen die Instrumente genau definiert werden. Deshalb führt eine genaue Betrachtung (wenn nötig, unter Verwendung des „Gedankenverstärkers“ in Form des Modells Dimension-ZeitKosten – s. Abschn. 18.2) zu folgender Formulierung des genauen physikalischen Widerspruchs: die Poren zwischen den Fäden halten das Wasser zusammen mit dem Schmutz gut fest. Die Fäden aber halten den Schmutz nicht fest. Hier ist deutlich zu erkennen, dass der Widerspruch sich irgendwie im Raum von selbst gelöst hat, da die „unvereinbaren“ Anforderungen sich auf verschiedene Objekte beziehen! Das aber bedeutet, dass aus allen problematischen Anforderungen nur eine übrig geblieben ist – die Fäden dürfen den Schmutz nicht festhalten. Jetzt kann man die geforderte Eigenschaft als das Fehlen einer entwickelten porösen Oberfläche der Fäden definieren. Oder mit anderen Worten als hohe Hydrophobie der Fäden entsprechend des oben erwähnten chemischen (genauer physikalisch-chemischen) Effekts. Solchen Eigenschaften entspricht in hohem Maße ein Faden aus 100%iger Zellulose. Und so lautet auch die Kontrolllösung, die von der Firma H2OAktiv Vertriebsgesellschaft Reinigungsprodukte mbH, Deutschland entwickelt und angewendet wird. Letztendlich sollten wir auch der effektiven Beteiligung der strukturellen Ressource bei der Lösung der hier bestehenden physikalischen Widersprüche Beachtung schenken: eine dichte Verflechtung dünnster Zellulosefäden führt zu einer hochgradigen Hydrophilie, welche das Wasser aktiviert und seine Oberflächenspannung verringert, so dass Schmutzpartikel aufgenommen werden können. Das heißt, jeder Faden des Tuchs (Teil des Systems) ist hydrophob, das Tuch (das ganze System) als ganzes hingegen ist hydrophil! Beim Ausspülen des Tuchs gibt es zusammen mit dem Wasser die Schmutzpartikel ab und lässt sich später immer wieder verwenden. Dank der hohen Hydrophilie entfernt das Tuch (mit Wasser) selbst solche Verschmutzungen, wie Ölflecken oder frische Ölfarbe! Bsp. 93. Märchenhafte Realität. Wer hat nicht als Kind das Märchen vom Zauberberg gelesen, aus dem ununterbrochen süßer Brei fließt? Man brauchte nur ein
13 Modelle für die Suche neuer Funktionsprinzipien
205
Zauberwort, damit der Brei floss, aber ein noch vielleicht wichtigeres Wort, damit er auch wieder aufhörte. Sonst würde er die ganze Welt mit Brei überschwemmen. So das Märchen. Heute können wir solche Bilder aufgrund der Aussagen von Gegnern der Genund Nanotechnologie auch nicht mehr ausschließen. Nur könnten anstelle des Breis Viren, Bakterien und andere sichtbare oder unsichtbare künstliche Wesen, vielleicht sogar „denkende“, agieren. Wir wollen hier aber einfachere und ungefährlichere Beispiele betrachten. Wie kann man erreichen, dass Sportschuhe (oder andere Schuhe) sich genau dem Fuß anpassen? Jeder Fuß ist individuell geformt, Schuhe werden jedoch nur in genormten Größen hergestellt. Man benötigt ein Verfahren, mit dem gekaufte Sportschuhe selbst zur genauen Kopie des Fußes werden! Gehen wir in den Katalog Chemische Effekte (Anlage 9) und untersuchten die Punkte 22 Kontrolle des Zustands und der Eigenschaften im Raum und 23 Veränderung räumlicher Eigenschaften des Objekts. Gele! Das ist das, wonach wir suchen. Und in der Tat, wenn wir in der technischen Literatur nachschlagen, entdecken wir schnell, dass diese synthetischen gallertartigen Stoffe in der Lage sind, unmittelbar und ständig ihr Volumen zu verringern oder auf ein tausendfaches oder mehr zu vergrößern! Dabei bedarf es nur einer geringfügigen Menge eines aktivierenden Zusatzstoffes, einer Temperaturveränderung oder anderer Faktoren. Eine ganze Klasse dieser Stoffe wurde in Japan entwickelt und wurde als „intelligente Gels“ bezeichnet. Das erste Erzeugnis, bei dem sie angewendet wurden, waren eben genau Sportschuhe, die bei Erwärmung des Fußes sich ausdehnen und dicht, aber gleichzeitig auch weich, den Fuß umschließen. So wurde auf dem Niveau des Stoffs unter Verwendung eines chemischen Effekts der „unlösbare“ physikalische Widerspruch gelöst: Sportschuhe müssen ungeachtet individueller Besonderheiten der Füße des Käufers hergestellt werden, sie sollen aber jedem Käufer absolut genau passen. Hier eine andere Lösung eines analogen Problems: Entwicklung einer „intelligenten“ Verpackung, die von selbst fest und gleichzeitig vorsichtig in einem Päckchen beliebige zu versendende Erzeugnisse mit noch so komplizierter Form und aus noch so zerbrechlichem Material umschließt, wie z.B. aus dünnem Glas. Zu den bereits untersuchten chemischen Effekten kann man noch folgenden hinzufügen: Verwendung elastischer und plastischer Stoffe aus Punkt 19 Veränderung der Größe und Form eines Objekts aus demselben Katalog. Die Firma Sealed Air Corporation (USA) hat hochelastische Polyethylensäcke mit beliebiger geforderter Größe entwickelt, in denen bei mechanischer oder thermischer Starteinwirkung ein Prozess der Bildung eines polymeren Schaums initiiert wird, der sich gleichmäßig auf das ganze Volumen verteilt. (Abb. 13.3). Das Wachstum der abdichtenden Verpackung wird durch die verschickte Verpackung selbst gestoppt! So kann man heute einige märchenhafte „Erfindungen“ durchaus als Prototypen für völlig reale Dinge betrachten! Das Ziel dieses Beispiels besteht nicht nur darin, die Wirkung des einen oder anderen chemischen Effekts zu demonstrieren, sondern auch darin, ihre Ergebnisse zu zeigen – neue Technologien und Objekte, die man anwenden kann, selbst, wenn unbekannt ist, wie sie entstanden sind.
206
Klassische Navigatoren des Erfindens des A-Studios
Solche Objekte kann man aber auch finden, wenn man in großen Enzyklopädien oder speziellen technischen Nachschlagewerken nachsieht, um Beispiele zu finden, wie dieser oder jener Effekt umgesetzt wurde, oder wie in der Technik geforderte Eigenschaften erhalten wurden. So, wie wir es gemacht haben, indem wir uns mit einer ziemlich eingeschränkten Anzahl von „Zugängen“ zu den betrachteten Katalogen befassten. Für das letzte Beispiel sollte Abb. 13.3. „Intelligente Ver- noch angemerkt werden, dass es sich hier um eine packung“ aus „selbstwachseffektive Anwendung von Schaum, eigentlich von endem“ polymeren Schaum Hohlräumen in einem Stoff handelt, wie z.B. in einer sich selbst abdichtenden Verpackung. 6 Hier tritt der Hohlraum als idealer Stoff auf, der 5 7 einerseits nicht da ist, andererseits aber doch da ist, da 1 er fast das gesamte Volumen des Verpackungsmateri2 als ausfüllt, indem er eine Polyethylenschicht in all die Richtungen drückt, wo keine Hindernisse vorhan3 den sind! Bsp. 94. Unbeweglicher Wetterhahn! In einem Nachschlagewerk könnte man in etwa folgende 4 Beschreibung finden: Wetterhahn (Windfahne) ist ein meteorologisches Gerät für die Bestimmung der Richtung und Geschwindigkeit des Windes (Abb. 13.4), Abb. 13.4. Beweglicher das aus zwei beweglichen Teilen besteht – der eigentWetterhahn lichen Windfahne 1, die sich in Richtung des Windes stellt, dank Vorhandensein eines Schwanzblatts 2, auf das der Wind wirkt, und einer Metallplatte 6, die bei stärkerer Kraft des Windes einen größeren Winkel einnimmt. Bei seiner Drehung zusammen mit der Stange 5 stellt die Windfahne die Metallplatte dem Wind entgegen. Das Gegengewicht 3, welches das Gewicht des Schwanzblattes der Windfahne ausgleicht, zeigt die Richtung des Windes im Verhältnis zu den unbeweglichen Stiften 4, die in die Himmelsrichtungen ausgerichtet sind. Der Ausschlagwinkel der Metallplatte im Verhältnis zum Bogen 7 mit einem Winkelmesser zeigt die Windstärke. Das ist ein sehr altes Gerät, das nicht gerade besonders genau ist, da eine Windfahne sich bei schwachem Wind nicht dreht, und die Platte bei schwachem Wind sich nicht anhebt und sich instabil bei starkem Wind verhält. Man kann zwei gleiche physikalische Widersprüche formulieren: 1. die Fahne soll groß und leicht sein, damit sie auch bei schwachem Wind arbeitet, und sie soll klein und schwer sein, damit sie stabil arbeiten kann und bei starkem Wind nicht entzwei geht; 2. die Platte soll groß und leicht sein, damit sie bei schwachem Wind funktioniert, und sie soll nicht groß sein und schwer, damit sie stabil arbeiten kann und bei starkem Wind nicht entzwei geht. Im Idealfall bedeutet in der TRIZ das Charakteristikum „klein“, in Bezug auf Eigenschaften wie Größe, Gewicht oder bestimmte negative Faktoren, dass man
13 Modelle für die Suche neuer Funktionsprinzipien
207
versuchen muss, sich ein „Null-Gewicht“ oder eine „Null-Größe“ usw. vorzustellen. Eine „Null-Windfahne“ und eine „Null-Platte“ können sich überhaupt nicht bewegen! Das aber steht im Widerspruch zu ihrem Funktionsprinzip. Richtiger: im Widerspruch zum bisherigen Funktionsprinzip, das in sich unlösbare Widersprüche barg! Was wäre, wenn man einen Wetterhahn mit Null-Größe und Gewicht der Windfahne und der Platte entwickeln würde?! Das klingt absolut paradox – „ein unbeweglicher Wetterhahn“. Praktisch bedeutet das, dass ein neues Funktionsprinzip der Vorrichtung mit den alten Funktionen benötigt wird, die jedoch qualitativ besser arbeitet. Behalten wir den traditionellen Namen – Wetterhahn – bei, vielleicht mit dem Zusatz einer Definition des neuen Wirkungsprinzips. Das neue Prinzip muss auf einem allgemeinen Prinzip aller Messgeräte basieren – Feststellen und Bewerten eines absoluten Unterschieds zwischen einer bestimmten unveränderlichen, geeichten Größe (Himmelsrichtungen) und einer zu messenden, veränderlichen Größe (Position der Windfahne, genauer, der Ausschlagwinkel der Windfahne bezüglich der Basisrichtung, z.B., Nord und im Uhrzeigersinn) oder auf dem Unterschied zwischen den Veränderungen zweier zu vergleichender Größen, von denen die eine sich schneller als die andere verändert (Unterschiedsmessung). Wenn das letzte Verfahren angewendet wird, kann man davon ausgehen, dass ziemlich viele Effekte hier potentiell in Frage kommen. Versuchen Sie selbst, unbewegliche Wetterhähne zu entwickeln, deren Funktionsprinzipien sich von denen unterschieden, die wir in der Kontrolllösung erörtern werden. Die Kontrolllösung zeigt ein allgemeines Verfahren der Überwindung von Denkstereotypen, was auch das wichtigste und nützlichste Ergebnis dieses Beispiels sein soll. Wenn wir den Katalog technischer Effekte zurate ziehen, könnten wir schlussfolgern, dass die Windgeschwindigkeit z.B. anhand des Abkühlungsgrades eines erhitzten Körpers, der dem Wind ausgesetzt ist, gemessen werden kann (Punkt 1 Messen der Temperatur Katalog physikalische Effekte und die Gruppe von Effekten unter der allgemeinen Bezeichnung Thermoelektrische Erscheinungen). Wie aber kann mit diesem Verfahren die Windrichtung gemessen werden? Man könnte einen Teil des erhitzten Körpers abdecken, und den anderen dem Wind aussetzen, und den Körper drehen, um die Position zu finden, in der er am schnellsten abkühlt – das würde bedeuten, dass die gefundene Richtung die ist, aus welcher der Wind weht. Das ist möglich, jedoch kompliziert und dauert ziemlich lange. Mechanische Positionsveränderungen sind offenbar nicht geeignet. Kontrolllösung: von Mitarbeitern des DIMES Delft InstituN te of Microelectronics and Submicron-technology an der Delft University of Technology (Niederlande) wurde ein W O Wetterhahn entwickelt (Abb. 13.5), in einer Größe von 5 ɯ 5 mm2, der aus einem integrierten Schaltkreis aus Silizium besteht und auf jeder Seite ein Thermopaar hat. Von unten S wird der Schaltkreis gleichmäßig erwärmt. An der Seite, Abb. 13.5. Unbewegwo der Wind weht, kühlt der Schaltkreis ein wenig ab, was licher Wetterhahn sofort vom hochempfindlichen Thermopaar registriert wird. Wenn der Wind aus einer Zwischenrichtung weht, reagieren zwei Thermopaare unterschiedlich und fixieren die unterschiedliche Abkühlung der Seiten des
208
Klassische Navigatoren des Erfindens des A-Studios
Schaltkreises, auf der sie angebracht sind. Je größer die Windgeschwindigkeit wird, desto stärker ist die Abkühlung. Die Windrichtung berechnet der Schaltkreis selbst anhand der Unterschiede der Stromstärke, die von den Thermopaaren erzeugt werden. Dieses Beispiel zeigt auch eine großartige Lösung unter Kontraktion eines Systems – Ausschluss überflüssiger, uneffektiv arbeitender oder unzuverlässiger Elemente (s. Abschn. 15.2.4). Das neue Prinzip ermöglicht, ein kompaktes System ohne bewegliche Teile zu entwickeln, die in einem breiteren Bereich genau funktionieren – bei Windstärken von 10 Zentimetern bis 60 Metern in der Sekunde. Bsp. 95. Perpetuum Mobile für die Menschheit?! Ein noch beeindruckenderes Beispiel für die Koagulation sehen wir, wenn wir die Idee für die Entwicklung eines Motors mit Wasserstoff-„Kraftstoff“ untersuchen. Die Trägheit unseres Denkens schreibt uns sofort vor, einen „neuen“ Motor mit innerer Verbrennung zu entwickeln, in dem als „Kraftstoff“ zusammen mit Benzin Wasserstoff verbrennt und sich dabei mit Sauerstoff verbindet und Wasser als Abfallprodukt produziert. Wir können uns vorstellen, dass so ein Motor ökologisch absolut ideal wäre, und allein das ist schon äußerst bemerkenswert! Dennoch sieht in diesem Fall die Realität noch besser aus – bedeutend besser! Der Grund dafür ist, dass in den neuen „Wasserstoffmotoren“ von DaimlerChrysler Deutschland nichts mehr verbrannt wird, da sie überhaupt keine Motoren mit innerer Verbrennung mehr sind! Und diese Verbindung birgt in sich eine neue technische Revolution, deren Bedeutung gar nicht hoch genug eingeschätzt wird, erneut wegen der Trägheit des Denkens. Ja, das Automobil der Zukunft wird kompromisslos ökologisch sein, es wird einen hohen Wirkungsgrad und einen äußerst zuverlässigen Antrieb auf der Grundlage eines Elektromotors haben. Aber! Aber betankt werden wird er wie schon immer von außen – in Tankstellen, aus Schläuchen. Und genau das Beibehalten aller gewohnten Handlungen zur Bedienung und Steuerung eines Autos verhindert, dass die sich nahende Revolution bemerkt wird! Genau das zeigt, dass in der Zivilisation grandiose, vom Maßstab her revolutionäre Veränderungen vonstatten gehen können, ohne dass sie bemerkt werden! Es bleibt nur zu hoffen, dass sie alle so positiv sein werden, wie die Entwicklung neuer Autos, die wir mit dem Oberbegriff NECAR (von New Electric Car) bezeichnen wollen – diese Bezeichnung trägt heute eine der Testserien eines solchen Automobils von Daimler-Chrysler. Dieses Beispiel soll hier nicht als Re-Inventing behandelt werden, sondern als führendes Beispiel für die Umsetzung eines ganzen Komplexes physikalischchemischer Effekte dienen. Die Effekte, die vor allem dem Funktionsprinzip der neuen Elektroenergiequelle zugrunde liegen, aber auch das neue Antriebs- und Energiesystem des Autos betreffen, obwohl sich die Anwendung der neuen Idee noch lange nicht darauf beschränkt. Ich hoffe, dass Sie daraus selbst Ihre Schlussfolgerungen ziehen, die nicht weniger bedeutend als beim Re-Inventing sein werden. In der Abb. 13.6 finden Sie gleich zwei Varianten einer Zelle der neuen Energiequelle Necar: I – auf der Basis vorher erzeugten Wasserstoffs und II – auf der Basis von Wasserstoff, der unmittelbar im Auto gewonnen wird.
13 Modelle für die Suche neuer Funktionsprinzipien
209
Beim Schema I wird Wasserstoff durch eine poröse Anode 1 geleitet, und seine Protonen dringen unter Anwesenheit eines Katalysators 3 durch eine Membran 4 (PEM – Proton Exchange Membrane) in die Kathode 2 ein, dabei entsteht an der Anode 1 eine negative elektrische Ladung, und in der Kathode 2 – eine positive. Bei der Verbindung von Wasserstoff mit Sauerstoff in der porösen Kathode 2 entsteht wirklich Wasser als Abfallprodukt. Die primären Energiezellen werden dann zu großen Batterien verbunden, an deren Pole kann dann ein Abnehmer angeschlossen werden, wie z.B. ein Gleichstrom-Elektromotor und ein System der Stromversorgung für ein Auto.
1
+ 2
I
-
H2
+
H2 H2O
O2
-
+
-
CH3OH
-
+
II CO2
3
4
Abb. 13.6. Wasserstoffkraftwerk an Bord eines Autos: I – mit „reinem“ Wasserstoff; II – mit Wasserstoff, gewonnen aus Methanol
Das Schema II, das von einer Tochterfirma von Daimler-Chrysler der XCELLSIS, entwickelt wurde, unterscheidet sich vom Schema I nur dadurch, dass der Wasserstoff direkt an Bord des Autos aus einer Mischung von Methanol und Wasser erzeugt wird. Bei dieser Reaktion, die von einer Wärmeentwicklung begleitet wird, entsteht auch Kohlendioxid, jedoch dreimal weniger (!) als in den derzeit modernsten und „saubersten“ Motoren mit innerer Verbrennung. Aus diesem Grund haben die Schöpfer des Necars ihn als „Null-Emissions“-Automobil bezeichnet. Um den Necar mit Methanol zu betanken, können normale Benzintankstellen umgerüstet werden. Jedoch auch das erste Schema müsste für Hersteller von Großfahrzeugen von Interesse sein. Diese Fahrzeuge könnten zentrale Wasserstoffbehälter haben, die sich bei LKWs und Bussen ohne Risiko wechseln lassen. Die Entwicklung des Necars beendet eine fast 150-jährige Ära des Motors mit innerer Verbrennung – einer der führenden Erfindungen der Zivilisation und gleichzeitig eines der größten Umweltverschmutzer (s. Bsp. 112 und Abschn. 15.3). Sie gehen sogar davon aus, dass Energiequellen mit dem neuen Wirkungs-
210
Klassische Navigatoren des Erfindens des A-Studios
prinzip so effektiv und vielfältig werden können, dass sie Anwendung finden werden, begonnen bei Mopeds und Rasenmähern bis hin zu Laptops und Handys. Als Abschluss dieses Beispiels und des gesamten Abschnittes sollte noch einmal betont werden, dass natürlich die radikalsten Veränderungen von Erfindungen ausgehen, die auf neuen Wirkungsprinzipien technischer Systeme beruhen. Die Grundlage solcher Erfindungen bilden immer neue Erkenntnisse und Entdeckungen, die als Ergebnis wissenschaftlicher Forschungen gewonnen wurden. Dieses Wissen bildet die intellektuelle Grundlage für die Erweiterung der Datenbank technischer Effekte und die Grundlage für Erfindungen technischer Systeme mit neuen Funktionsprinzipien. Praktikum für die Abschnitte 10 – 13
19. Werbeplakat (1). Werbeplakate, darunter großformatige, kann man überall sehen – auf Autobussen und Straßenbahnen, an Hauswänden und in Eingangshallen von Gebäuden. Die Plakate haben auf der Rückseite eine Klebeschicht, und deshalb müssen sie vor dem Aufkleben genau angepasst werden, da es später, selbst wenn nur ein kleines Stück aufgeklebt wurde, sehr kompliziert ist daran Korrekturen vorzunehmen, weil das Material des Plakats beschädigt würde. Widerspruch: das Plakat muss sich leicht aufkleben und zuverlässig fixieren lassen, bei richtiger Ausrichtung. Was kann man hier tun? 20. Werbeplakat (2). Wie kann man ein Plakat herstellen, mit dem man das ganze Äußere als auch die Fenster eines Autobusses bekleben kann? Alle Passagiere sollen aber auch noch etwas sehen können aus dem Bus?! 21. Beliebige Pfanne – teflonbeschichtet! Wie kann man eine beliebige Pfanne, nehmen wir einen Gänsebräter, den Sie schon zu Hause haben, so gestalten, dass darin nichts anbrennt? 22. Türklingel. Wie kann man erreichen, dass Sie an jedem beliebigen Ort Ihrer Wohnung oder Ihres Hauses die Türklingel hören können? 23. Abnutzung von Reifen. Wie kann man erreichen, dass ein Reifen selbst über den Grad seiner Abnutzung informiert? 24. Neutralisierung von Abgasen eines kalten Motors. Die Abgase eines kalten gerade gestarteten Motors sind besonders schädlich. Wie kann man erreichen, dass diese äußerst schädlichen Abgase nicht in die Atmosphäre eindringen können? 25. Wärmende Kleidung. Normale Kleidung wärmt nicht. Sie ist ein passives System, das die Wärme erhält, die vom Körper ausgeht. Machen Sie Vorschläge, welche Prinzipien für eine aktiv wärmende Kleidung denkbar sind. 26. Mikropinzette. Mit was für einer Pinzette kann man ganz nahe und sicher an Gefäßen des Gehirns arbeiten, wenn die Größe des geschlossenen Arbeitsorgans der Spitze der Pinzette etwas mehr als 0,5 mm beträgt? 27. Wie leben Adler und Greifvögel? Wie kann man eine mehrmonatige ununterbrochene Beobachtung von Nestern gewährleisten, wenn der Beobachter natürlich nicht die ganze Zeit z.B. auf einem benachbarten Felsen sitzen will?
13 Modelle für die Suche neuer Funktionsprinzipien
211
28. Weiße Lichtdiode. Es ist bekannt, dass Halbleiterlichtdioden Licht im blauen, roten und grünen Bereich abstrahlen. Wie kann man von einer Miniaturlichtdiode z.B. weißes Licht erhalten? 29. Spiegel für ein Teleskop. Wie kann man einen Spiegel für ein Teleskop mit einem Durchmesser von 8 Metern herstellen, der eine ideal parabolisch gekrümmte Form hat und aus Glaskeramik besteht? 30. Einfrieren von Beeren und Obst. In den bekannten Geräten für schnelles Einfrieren frischer Beeren und Früchte läuft bereits auf dem Fließband eine Voreinfrostung ab, damit sie beim folgenden Tieffrostvorgang nicht zusammenfrieren. Für den abschließenden Gefriervorgang werden die Produkte vom Fließband gelöst, dabei können sie aber beschädigt werden. Wie kann der ganze Prozess des Einfrierens verbessert werden, und wie können Beschädigungen der Produkte verhindert werden? 31. Nicht fallende Zahnbürste. Zahnbürsten stellt man in ein Glas oder in eine dafür vorgesehene Öffnung im Badregal, damit sie trocknen und auch nicht auf den Boden fallen. Frage: kann man mit seinem Schulwissen in Physik, eine Zahnbürste mit einem neuen Funktionsprinzip entwickeln, damit sie z.B. selbst im Regal stehen kann? 32. Training von Bergsteigern. Wie kann man das Training von Sportlern in Sporthallen gestalten, damit die Trainingsbedingungen so realistisch wie möglich sind und es zu keiner Gewöhnung an immer dieselben „Felsoberflächen“ kommt? 33. Superschwungrad. Ein Superschwungrad ist eine Scheibe, die durch eine ringförmige Wicklung 1 aus einem hochfesten Band (Drähte, Fasern) auf ein tragendes Zentrum 2 gewonnen wird, das auch die Form einer Scheibe hat und gegossen ist, z.B. aus Dural. Solche Schwungräder können z.B. als Energiequellen für einige Stunden Fahrt eines Autos dienen, für die Entwicklung robotertechnischer beweglicher Systeme mit mechanischem Funktionsprinzip in explosionsgefährdeten Umgebungen, in denen elektrische Funken nicht entstehen dürfen. Das Problem besteht darin, dass es kein Zentrum gibt, das 1 Ausdehnungsdeformationen aushält, wenn bei gigantischen Beschleunigungen von 100 g (g – freie Fallbeschleunigung) das gewickelte Band aufhört auf das 2 Zentrum zu drücken. Die Zerstörung der Scheibe beginnt an der Stelle, wo sich der Halter des Bands befindet. Es ist auch bekannt, dass Kompensatoren für den Spalt zwischen Band und Scheibe auch nicht halten und entzwei gehen, wonach dann auch das Zentrum zerstört wird. Haben Sie keine passende Idee für die Entwicklung Abb. 13.7. Aufbau eines zuverlässigen Zentrums und eines ganzen des Superschwungrads Superschwungrads? 34. Testen von Leitungen. Wie kann man Tests an Kontaktleitungen und Strom abnehmenden Geräten für Hochgeschwindigkeitszüge durchführen, wenn durch die Leitung Ströme mit Stärken bis zu 1000 Ampere fließen müssen, und die Geschwindigkeit des Zugs bis zu 500 km/h erreichen kann? Aufgrund der technischen Bedingungen muss die Leitung nicht weniger als 2 Millionen Durchläufe des Stromabnehmers aushalten!
Strategie des Erfindens
Die Projektierung technischer Systeme, was noch vor 100 Jahren eine Kunst war, wurde zu einer exakten Wissenschaft, und sie verwandelt sich in die Wissenschaft über die Systementwicklung. Das Entstehen der TRIZ, ihre schnelle Entwicklung, das ist kein Zufall, sondern eine Notwendigkeit, die von der modernen wissenschaftlichtechnischen Revolution diktiert wird. Die Arbeit „nach der TRIZ“ verdrängt unweigerlich die Arbeit „aufs Geratewohl“. Doch der menschliche Verstand bleibt nicht tatenlos: die Menschen werden über noch kompliziertere Aufgaben nachdenken. Genrich Altschuller
14 Steuerung der Systementwicklung 14.1 Entwicklung von Systemen Die TRIZ sagt nicht die Zukunft voraus, jedoch können Sie mit der TRIZ die Entwicklung jedes technischen Systems prognostizieren. Die Grundlage für die Prognosen bilden sehr allgemein gehaltene Gesetzmäßigkeiten (Meta-Modelle) der Systementwicklung, die bei der Untersuchung mehrerer Hunderttausend Erfindungen herausgestellt wurden und von denen viele auf die Verbesserung ein und desselben Systemtyps über mehrere Jahrzehnte hinweg gerichtet waren. Die Meta-Modelle der Entwicklung umfassen die so genannten „TRIZ-Gesetze“, „Linien der Systementwicklung“, die Modelle „Mehrfachbildschirm“ und „System-Übergänge“, die Methode „Integration alternativer Systeme“ und andere Modelle. Technik und Wissenschaft werden immer vielschichtiger. Die Spezialisierung und Differenzierung des Wissens schreitet immer stärker voran. Die negative Seite dieser Prozesse ist die steigende Gefahr der Verzerrung und Modifikation positiver globaler Ziele der Systementwicklung. Es kommt zu einer Aufweichung der Kriterien für die Bewertung der Progressivität oder Regressivität entwickelter Systeme, zu Gunsten egoistischer und eigennütziger Interessen dieser oder jener Produzenten oder aufgrund politischer Ambitionen. Sollte und kann man sich diesen gefährlichen Tendenzen entgegenstellen? Eine Voraussetzung dafür ist, dass Ingenieure und Wissenschaftler die strategischen
14 Steuerung der Systementwicklung
213
Gesetzmäßigkeiten der Systementwicklung kennen, und sie bei einer zielgerichteten Entwicklung von Systemen anwenden, die den Kriterien der globalen Nützlichkeit entsprechen. Der Lebenszyklus eines jeden technischen Systems (TS), von der Erfindung bis zum Auslaufen seiner Herstellung und Nutzung, wird von einer großen Zahl miteinander interagierender Faktoren bestimmt. Die größten Gruppen64 der „Einflussnahme“ finden Sie in Abb. 14.1. Bedienungssysteme schützen bestehende TS vor dem zerstörerischen Einfluss der Umgebung. Dabei ist festzustellen, dass alle TS ununterbrochen unter dem Einfluss der Umwelt „altern“. Modernisierungssysteme gewährleisten Modifikationen von TS entsprechend neuer Bedingungen ihrer Anwendung. Dabei vergrößern gegeneinander wirkende Systeme (z.B. ein Detail für ein Bearbeitungsinstrument) unaufhaltsam den Verschleiß des TS, verkürzen die Lebenszeit eines konkreten Exemplars eines TS oder zerstören es. Nutzungssysteme (z.B. Autofahrer) können TS schonend verwenden, d.h. mit dem Zeichen (+) am entsprechenden Pfeil, können sie aber auch extrem nutzen, d.h. mit dem Zeichen (-). Letztendlich erfährt jedes konkrete Exemplar eines TS die Einwirkung von Ausnutzungssystemen, dabei hat das Ausnutzungssystem eine äußerst negative und zerstörerische Einwirkung, d.h. mit dem Zeichen (-). Konkurrierende kreative Systeme
Anwendungsbereich
Kreative Systeme
Neues konkurrierendes System
Nutzungssysteme
Neue Variante des Systems
+,+,Modernisierungssysteme
+
+ Bedienungssysteme
-
Sich entwickelndes System
-
Umgebung
Gegenwirkende Systeme
-
Ausnutzungssysteme Abb. 14.1. Wechselwirkung sich entwickelnder Systeme mit der Umgebung im Intervall ihres Lebenszyklus 64
Die Idee für dieses Schema wurde von meinem Lehrer, dem bekannten Wissenschaftler und systemtechniker Prof. Alexander Schirokoff (1924-2003) bereits zu Beginn der 1960er Jahre aufgestellt.
214
Strategie des Erfindens
Kreative Systeme, darunter ein großer Kreis von Erfindern, Konstrukteuren, Herstellern und Verkäufern (!) usw., gewährleisten entsprechend dem „Gesetz des Wachstums der Idealität“ (s. nächst. Abschn.) eine ununterbrochene Vervollkommnung von TS. Dabei ist es für die aktuellen Exemplare von TS in gleichem Maße „tödlich“, ob sie von Konkurrenzprodukten ersetzt werden oder von neuen Exemplaren desselben Herstellers. Die Evolution künstlicher Systeme verläuft mit äußerst dramatischen Widersprüchen. Um die maximale integrale Effektivität des existierenden Musters zu erreichen, sollte man nach maximaler Langlebigkeit streben. Jedoch ist der Hersteller gezwungen, schon viel früher neue Muster herzustellen, entsprechend den Ergebnissen der Nutzung, sowie unter Berücksichtigung des eventuellen Erscheinens von Konkurrenzprodukten. Der Erfinder und seine „Einflusssphäre“ muss eine außerordentlich hohe Erfindungsgabe haben, um die Entwicklung der hergestellten Art eines TS steuern, seine Modernisierung sowie den Wechsel der Typen und Generationen durchführen zu können. Auf die Frage nach der Möglichkeit, irgendein „allerbestes“ Produkt, oder eine Reihe auf jeden Fall am Markt führender Produkte schon für 10 Jahre im Voraus erfinden zu können, wenn man eine erfinderische Technologie folgerichtig für jede anstehende Aufgabe anwendet, kann man nur mit Nein antworten. Das liegt daran, dass nur die Erprobung in der Praxis, entsprechend des in Abb. 14.2. aufgeführten Zyklus, reale Kriterien für die Steuerung der Entwicklung eines Systems liefert.
Idee vom Produkt Innovative Projektierung
Realisierung des Produkts
Produktion
Anwendung
Bewertung des Produkts Abb. 14.2. Wechselwirkung sich entwickelnder Systeme mit der Umgebung
Reale Bewertungen sind für die Entwicklung und Korrektur effektiver Entwicklungsszenarien notwendig. Und je früher man das macht, desto besser. Dabei muss man jedoch das Risiko eingehen, neue Muster herauszubringen. Und muss parallel dazu ständig auf der Suche nach neuen Ideen sein. Dabei kann und muss man die Methodik der erfinderischen Kreativität anwenden, um stets auf ausreichend lange Zeiträume im Voraus Entwicklungsprognosen machen zu können. Schlüsselaspekte und Alternativen der Entwicklung von Systemen finden Sie in Abb. 14.3. Eines der praktischen Ergebnisse der Systemanalyse muss die Entscheidung für eine bestimmte strategische Richtung bevorstehender Veränderungen am existierenden System oder bei der Entwicklung eines neuen Systems sein. In der klassischen TRIZ wurden zu diesem Zweck die Konzeptionen „Minimale Aufgabe“ und „Maximale Aufgabe“ formuliert. Die erste Konzeption ist dabei die wichtigere, da sie eine Strategie vorgibt, mit der das beste Ergebnis mit „Nullaufwand“ erreicht werden kann. Diese Konzeption unterscheidet sich stark von den bekannten
14 Steuerung der Systementwicklung
215
Prinzipien der mathematischen Optimierung, die nur im Extremfall die Möglichkeit einräumt, mit minimalem Aufwand zu arbeiten, wenn abzusehen ist, dass es hierbei zu maximalen Effekten kommt (Mini-Max-Modelle). Aus diesem Grund hat die Konzeption „Minimale Aufgabe“ eine psychologische Bedeutung, da sie günstige Voraussetzungen schafft, um das „ideale Resultat“ zu erreichen und gleichzeitig kreative Ressourcen mobilisiert, um die besten realistischen Resultate zu erreichen. Quellen der Entstehung von Problemsi tuationen
Schlüsselaspekte der Lösung eines innovativen Problems Gründe für das Entstehen eines Problems
Methodologie der Lösung eines Problems
Posi tive s Ergebni s – Fortschritt
Aufstellen neuer Forderungen Innovatives Projektieren
Anwendungsbereich des TS
Anstieg der Kompliziertheit TS Entwicklung Materialien und Technologien
Konservative s Projektieren Schaffung neuer Möglichkeiten
Alternativen zur Evolution
Anstieg der Effektivität, Erweiterung des Markts Schnelles moralisches Altern, Verlust des Markts Negatives Ergebni s – Rückschritt
Abb. 14.3. Schlüsselaspekte und Alternativen der Entwicklung von Systemen
Hier sollte man aber feststellen, dass bei jeder dieser Strategien die Aufgaben sowohl schwierig als auch einfach sein können (Abb. 14.4). Entsprechend dieser Tabelle lassen sich alle Aufgaben in 3 Kategorien unterteilen: - „Korrigierende Aufgaben“ – zur Beseitigung negativer Funktionen, natürlich ohne Dezimierung der Eigenschaften der positiven Hauptfunktion; - „Alternative Aufgaben“ – zur Suche eines anderen Verfahrens (Prinzips) der Ausführung der positiven Funktion bei gleichzeitiger Beseitigung einer vorhandenen negativen Funktion oder, um ein höheres Niveau der Umsetzung der nützlichen Funktion zu erreichen; - „Aufhebende Aufgaben“, die ein Verfahren suchen, das die Ausführung der nützlichen Funktion unnötig werden lässt.
216
Strategie des Erfindens
Meta-Strategie Minimale Aufgabe Maximale Aufgabe Das entscheidende Prinzip Die entscheidende ist bekannt Ressource ist bekannt (TRIZ-Instrumente) (TRIZ-Instrumente) Man hat eine Auswahl an Ressourcen (TRIZ-Instrumente)
Man hat eine Auswahl an Prinzipien (TRIZ-Instrumente und Methode der Integration alternativer Systeme)
Es gibt keine erkennbaren Ressourcen (Umformulierung oder Substitution der Aufgabe)
Es gibt keine erkennbaren Prinzipien (Übergang zur Synthese des Systems)
Kompliziertheit eines Problems
Niedrige
Mittlere
Hohe
Abb. 14.4. Meta-Strategie zur Lösung einer Problemsituation
Jetzt möchte ich zum Abschluss der Geschichte kommen, die ich im Abschnitt 7.1 begonnen habe. Am nächsten Tag besuchten zwei Ingenieure meinen Stand, zusammen mit meinem Gesprächspartner und Opponenten vom Vortag und dem Leiter der Abteilung F&E des Maschinenbauunternehmens. Nach 30 Minuten der Demonstration der „Invention Machine“ trübte ihre Begeisterung nur die Erinnerung daran, dass es in ihrer Firma nicht gelingen wird, die Geschäftsleitung davon zu überzeugen, diese Software zu erwerben! Natürlich hatte ich schon einige Erfahrungen damit, anhand der Größe der Stände auf Ausstellungen, die Größe der Firmen erkennen zu können, doch hier hatte ich geirrt. Der Stand dieser Firma war zwar bemerkenswert, doch, was ich dann zufällig im Gespräch erfuhr, erstaunte mich sehr. Es zeigte sich, dass in der F&E-Abteilung der Firma fast 50 Spezialisten mit der Entwicklung neuer Produkte beschäftigt sind! Ich gab den Herren noch einmal meine Visitenkarte. Bald schon wurde ich zu Ihnen eingeladen und bei unserem zweiten Treffen kam ein Gespräch folgender Art zustande: - Warum sind Sie nicht erfolgreicher als andere beim Verkauf? - Auf dem Markt gibt es viele Hersteller mit analogen Produkten. - Haben Ihre Produkte bestimmte Vorzüge? - Ja, aber keine großen. Der Bereich ist konservativ, mit seiner Geschichte und Tradition, es ist schwer etwas Ungewöhnliches anzubieten. - Können Sie denn Ihre Erzeugnisse zu einem niedrigeren Preis anbieten? - Nein. Die Selbstkosten sind sehr hoch. Viel Metall. Hoher Arbeitsaufwand. - Aber was machen denn da Ihre 50 F&E-Spezialisten? - ?! - Ihre Ingenieure sind nicht Schuld daran, dass ich die Anzahl Ihrer F&ESpezialisten erraten konnte. Jedoch verstehe ich Ihre Ziele nicht. Wenn es eine Nachfrage und einen Markt gibt, und er auch noch traditionell und konservativ ist, so gibt es nur zwei Wege erfolgreich zu verkaufen: eine höhere Qualität anbieten und neue Funktionen oder bei derselben Qualität, die Preise zu senken. - Es ist sehr schwer, die Produktion umzustellen. - Ja, wenn es nicht vorher geplant wird.
14 Steuerung der Systementwicklung
217
- Alle achten sehr genau auf Veränderungen bei den anderen. - Senkungen bei den Selbstkosten können unbemerkt ablaufen. Dann können Sie selbst bei unveränderter Position auf dem Markt einige Jahre Profit machen, den die anderen nicht feststellen. - Aber Qualität zählt mehr. - Gut. Qualifizieren Sie Ihre Leute. In dieser Zeit bereiten Sie Veränderungen vor, die Sie als erste auf den Markt bringen. Wer danach versucht Sie einzuholen, wird immer noch in der Situation sein, in der er, aber auch Sie, sich derzeit befinden. Einen Monat später erhielt ich einen ausgefüllten Bestellschein für die „Invention Machine“. Dennoch ist die Ausgangssituation bei zu vielen Leitern in der Industrie immer noch so, wie eben beschrieben, bei meinen Gesprächspartnern, und die im folgenden Beispiel eindrucksvoll illustriert wird. Das ist noch lange nicht alles. Wie jedes Jahr verbrachte ich zwei Tage in Hannover auch auf der Industriemesse 2001. Und erneut notierte ich mir einen umwerfenden Text, der zweifellos von einem außerordentlichen Talent an Selbstdarstellung zeugt, das nur noch mit dem Talent von US-Amerikanern vergleichbar ist! Auf einem großen Plakat in der Eingangshalle des Bahnhofs vor der Ausstellung las ich folgendes: Das Feuer haben wir leider nicht erfunden. (Weil es uns damals noch nicht gab.) Wir können alles. Außer Hochdeutsch. Ich denke, dass Sie nicht nur den mutigen Humor der Verfasser dieses Plakates bewundern, sondern auch an die bahnbrechenden technischen Errungenschaften dieser Region denken müssen. Das Unternehmen von dem ich berichtet habe, war auch aus Baden-Württemberg, so dass Sie aus dieser Geschichte auf humorvolle Weise hoffentlich unternehmerischen Optimismus geschöpft haben! 14.2 „Ideale Maschine“ Künstliche (technische) Systeme (Subsysteme, Baugruppen, Teile, Elemente, Materialien) werden für die Erfüllung nützlicher (positiver) Funktionen (PF – positive function) entwickelt. Eine davon kann als die positive Hauptfunktion (MPF – main positive function), als den Zweck des gesamten Systems (Subsystems, Baugruppen, Teile, Elemente, Materialien) bestimmende Funktion definiert werden. Andere PF sind zusätzliche und Hilfsfunktionen. In einem System gibt es uner-wünschte (negative) Funktionen (NF – negative function) und entsprechend auch eine negative Hauptfunktion (MNF – main negative function), die das Haupthindernis bei der Weiterentwicklung eines Systems darstellt. Negative Funktionen NF verschlechtern das Niveau der Realisierung der positiven Funktionen des Systems PF oder rufen andere unerwünschte negative Effekte hervor, z.B. für benachbarte Systeme. Eine der wichtigsten Kennziffern für die Entwicklung technischer Systeme, ist
218
Strategie des Erfindens
die Veränderung ihrer Größe. Diese Entwicklung kann in beide Richtungen verlaufen: sowohl in Richtung Vergrößerung, als auch in Richtung Verkleinerung. So ist für viele Transport- und Bearbeitungsmaschinen eine Vergrößerung charakteristisch (Schreitbagger, Trockenfrachter oder Öltransporter, Passagierund Transportflugzeuge). Kontroll- und Messgeräte, Kommunikationsmittel, Computer hingegen haben die Tendenz immer kleiner zu werden. In der TRIZ wurde diese Erscheinung festgestellt und analysiert, und führte zu einer durchaus konstruktiven Konzeption, der „idealen Maschine“. Die Konzeption der „idealen Maschine“ (IM - ideal machine) ist in der TRIZ eine genau so nützliche Metapher, wie auch der Begriff des „funktional idealen Modells“ und des „idealen Endresultats“ und konkretisiert letzteres in gewisser Hinsicht. Diese Metapher hat jedoch eine durchaus grundlegendere Bedeutung, die erstmals in der TRIZ präzise formuliert und konstruktiv verwendet wurde. Zugespitzt und metaphorisch klingt die Definition so: Die ideale Maschine - das ist eine Lösung, bei der das ideale Ergebnis erreicht wird, aber die Maschine selbst nicht existiert. Oder: Die ideale Maschine - das ist eine Lösung, bei der die nützliche Hauptfunktion erreicht wird, und das mit einem Nullaufwand. Es geht dabei um folgendes: die Maschine sollte ein Nullgewicht haben, eine Nullgröße, Nullkosten verursachen, Null-Energieverbrauch haben, NullSchadstoffe produzieren u.ä. Natürlich versteht man in der TRIZ unter dem idealen Endresultat kein willkürliches wundersames Resultat, sondern die äußerst genaue und konsequente Forderung, das verlangte Modell eines effektiven Funktionierens zu finden. Und das ohne ungerechtfertigte Verwendung zusätzlicher, teurer oder schwer zu beschaffender Ressourcen. An dieser Stelle möchte ich anmerken, dass der Begriff Effektivität bei weitem nicht so trivial gemeint ist, wie er klingen mag. Umso mehr, da es sich dabei um ein komplexes Begriffssystem handelt, das sich auch in einer Art Evolution befindet. Unabhängig jedoch von der Methode der Bewertung seiner Effektivität, vollzieht sich der Anstieg der „Idealität“ eines TS in folgende strategische Richtungen: 1. Zunahme der Funktionen des Systems. 2. Erhöhung der Qualität der Funktionen des Systems, die sich oft als Anstieg des Hauptparameters darstellen, z.B. der Geschwindigkeit, Leistung, Produktivität u.ä. 3. Senkung aller Arten von Verbrauch bei der Entwicklung, Anwendung und Entsorgung des Systems nach Ablauf der Nutzungszeiträume. 4. Senkung der negativen Auswirkungen auf die Umgebung des Systems. Betrachten wir jetzt den in der Systemtechnik und in der TRIZ verwendeten formalen Ausdruck für die Bewertung der Effektivität: Summe positiver Effekte Summe negativer Effekte Zu den positiven Effekten (Faktoren) gehören alle positiven Bewertungen von geforderten Zwecken eines Systems im Intervall seines Lebenszyklus.
E =
14 Steuerung der Systementwicklung
219
Zu den negativen Effekten oder Faktoren zählen alle Kosten, die beim Erreichen positiver Effekte anfallen, sowie Schäden, die der Umwelt oder anderen benachbarten Systemen zugefügt werden. Effektivität E ist ein universelles Maß der Bewertung eines Ergebnisses. Wenn das Ziel nur mit großem Aufwand erreicht wurde, ist die Lösung wenig effektiv. Eine Lösung, die mit vertretbarem Aufwand erreicht wurde, kann als effektiv oder zumindest als befriedigend aufgefasst werden. Wenn eine Lösung das Ziel erreicht und zusätzlich, nicht vorgesehene Ergebnisse liefert, kann man sie als hocheffektiv bezeichnen. Zusätzliche Ergebnisse nennt man auch SuperEffekte (Nebeneffekte). Und genau solche Lösungen werden als Erfindungen bezeichnet. Und eben diese Lösungen interessieren uns in erster Linie. In der Mehrheit der Fälle versucht man, die Effektivität auf der Basis spezieller formaler mathematischer Funktionen zu bewerten. Das Ideal eines solchen Wertes wäre, wenn E gegen Unendlich gehen würde. Rein mathematisch ist das der Fall, wenn der Zähler gegen unendlich oder der Nenner gegen Null geht, was in der Realität leider nur bedingt vorzufinden ist! Deshalb wollen wir den hier erwähnten Ausdruck nur als qualitatives Modell auffassen, das uns daran erinnern soll, dass der Nenner so klein wie möglich und der Zähler so groß wie möglich gehalten werden soll! Wenn wir sagen, dass Systeme nach Idealität streben, haben wir eben eine solche qualitative Interpretation im Blick. Der Pol, um den sich alle Entwicklungsrichtungen drehen, ist die „ideale Maschine“. An ihrem Pol vereinen sich heute die Formen von stromlinienartigen Rennwagen! Die auf den ersten Blick sehr viel Ähnlichkeit mit der sowjetischen TU-144 haben oder mit der europäischen „Concorde“, dem sowjetischen mehrfachverwendbarem Raumschiff „Buran“ und dem amerikanischen „Spaceshuttle“. Sicher fallen Ihnen noch andere ähnliche Beispiele ein. Wenn eine Aufgabe nach der Methode des „Versuchs und Irrtums“ gelöst wird, geht die Lösungssuche gewöhnlich in Richtung des „Vektors der psychologischen Trägheit“ oder, bestenfalls „in alle Richtungen“. Wenn sich der Erfinder mit der TRIZ der Lösung nähert, kann er den Sektor der Suche einengen. Die gesuchte Lösung wird ihn in die Nähe der „IM“ bringen. Und das wird dann auch die perspektivische Richtung seiner Suche sein. Es ist klar, dass in jedem konkreten Fall die IM richtig definiert werden muss. So wiegt ein LKW, der 3 Tonnen Last transportiert, ca. 1,5 t. Ca. 30 % der Motorleistung werden in diesem Fall dazu benötigt, die Konstruktion des LKW selbst zu befördern. Ein LKW, der für eine Last von 15 t ausgelegt ist, wiegt ca. 5 t. Der Anteil der Nutzlast bezogen auf eine Einheit der Motorleistung wurde deutlich größer, und genau das, bringt die Maschine dem Ideal näher. Ein für den Tagebau entwickelter 140-Tonner, lässt sich in 15 s entladen! Das ist viel weniger Zeit, als man beim Entladen von 28 Fünftonnern benötigt wird. Ein idealer Hubschrauber oder Flugzeug wäre einfach nur eine Art „fliegende Kabine“. Obwohl Flugzeugmotoren uns schon heute durch ihre verhältnismäßig kleinen Abmessungen und ihre gewaltigen Leistungen in Erstaunen versetzen, wodurch hohe Geschwindigkeiten erreicht und große Lasten transportiert werden können.
220
Strategie des Erfindens
14.3 Wachstumskurve des Hauptparameters eines Systems Technische Systeme durchlaufen eine funktionelle Entwicklung und lassen sich durch eine große Anzahl von Funktionen charakterisieren. Jede Funktion wird durch Kennziffern charakterisiert, z.B. Geschwindigkeit, Gewicht, Produktivität. Die beiden ersten Kennziffern sind „einfache“ Kennziffern. Die Produktivität hingegen ist eine komplexe Kennziffer und lässt sich oft nur schwer definieren. Drei Kennziffern für TS gelten als besondere und grundlegende: Effektivität, Sicherheit und Zuverlässigkeit (bei militärischen Systemen kommt noch eine hinzu – Lebensdauer). Die Effektivität z.B. kann das Verhältnis solcher Parameter wie „Brennstoffverbrauch für eine Strecke von 100 km“ zu dem Parameter „geforderte Geschwindigkeit für diese Strecke“ beinhalten, d.h. wir können so die Wirtschaftlichkeit eines Autos bezogen auf die Einheit geforderte Geschwindigkeit darstellen. Eine der Kennziffern (Parameter) 1 MP kann als Hauptkennziffer betrachtet werden. (MP - main parameter) – und das ist nicht in jedem Fall die Effektivität, so z.B., bei einem 3 Rennwagen, der einen neuen absoluten Geschwindigkeitsrekord aufstellen soll. Die Evolution von Systemen lässt sich anhand der 4 Veränderung ihrer Kennziffern be5 4 5 obachten, d.h. anhand der paraZeit 2 metrischen Entwicklung, manchmal auch stellvertretend nur eines Abb. 14.5. Allgemeine Ansicht – S-Kurven Parameters, des MP. der Entwicklung des Hauptparameters des TS Für einen Computer ist es – seine Geschwindigkeit bei der Berechnung von Testaufgaben (oder die Arbeitsfrequenz bei konstant gleichen Bedingungen – die Verarbeitungsbreite von Daten, die Kapazität des Arbeitsspeichers, u.ä.). Für ein Jagdflugzeug ist es die maximal erreichbare Geschwindigkeit. Das Entwicklungsniveau von TS wird oft durch den Wert des MP charakterisiert, dessen Graphik des Anstiegs die Form einer S-Kurve hat (Abb. 14.5). Der langsam abfallende Abschnitt 1 stellt das Erreichen der Entwicklungsgrenze des TS in seiner derzeitigen Form dar. Die Kurven 3 charakterisieren die Entwicklung der Typen des TS. Die Kurven 3 beugen und strecken die Unterkurve 2, welche die Entwicklung von Generationen (Arten) des TS charakterisiert. Mit den Punkten (Abschnitten) 5 und 4 hängt das Erscheinen von Erfindungen zusammen, die einen Bereich der Technik begründen (5), oder ihn grundlegend verbessern (4). Zurückkehrend zur Abb. 3.2, kann man die „Position“ von Erfindungen der entsprechenden Stufen auf den S-Kurven einordnen. Hier sollte erwähnt werden, dass die wirtschaftliche Effektivität für jede beliebige Erfindung sehr groß sein kann. Sogar geringfügige Verbesserungen auf der Stufe 1 können bei einer Massenproduktion sehr nützlich sein. Dennoch hat der Urheber einer Erfindung
14 Steuerung der Systementwicklung
221
der Stufe 4 oder 5 gewaltige Vorteile, wenn er die Strategie verwirklichen kann „neues Produkt - als erster auf dem Markt“. Als Beispiel ist in der Abb. 14.6 die Schar der S-Hüllkurven für den Anstieg der Geschwindigkeit von Transportsystemen dargestellt.
106
8 7
5
10
6 4
10
103 102
5 1
2
4 3
101 1800
1900
1 - Pferdefuhrwerk 2 - Eisenbahn 3 - Automobil 4 - Kolbenmotorflugzeug 5 - Düsenflugzeug 6 - Rakete mit chemischem Treibstoff 7 - Rakete mit Kerntreibstoff, Verdampfen eines Festkörpers mit Sonnenenergie 8 - integrale Hüllkurve
2000
Abb. 14.6. Anstieg der Geschwindigkeit von Transportsystemen
Maschinen kommen schwach auf die Welt, werden dann aber nach und nach immer kräftiger, in dem sie in sich eine Vielzahl von Erfindungen aufnehmen. In der Abb. 14.7 ist die 200-jährige Geschichte der funktionalen Entwicklung von Schiffsschrauben illustriert [2]. Die erfinderischen Gedanken bewegten sich auf drei verschiedenen Wegen – als Prototyp dienten die Flügel einer Windmühle, die Schraube zum Heraufholen von Wasser von Archimedes und das Mühlrad (an Gewässern). Jeder dieser Prototypen entwickelte sich durch die Bemühungen vieler Erfinder in verschiedenen Ländern weiter. Dennoch näherten sich diese drei Erfindungsketten immer mehr einander an und führten letztendlich zum Entstehen der uns heute bekannten modernen Schiffsschrauben. Hinter jedem vollkommenen technischen System stehen Tausende nacheinander gemachte Erfindungen. Sogar für ein „System“ wie den Bleistift wurden 20.000 Patente und Urheberscheine vergeben! Jede Erfindung treibt die Entwicklung eines Systems ein wenig voran. In den Zeiträumen zwischen diesen Schüben bleibt das System unverändert. Es ist gut zu erkennen, dass früher diese Zeiträume sehr lang waren, Maschinen wurden nur langsam weiterentwickelt (s. Abb. 14.7). Der Weg von einer Idee und den ersten experimentellen Mustern bis zum praktisch angewandten Erzeugnis dauerte Jahrzehnte. Noch ein Beispiel: die Idee der elektrischen Glühlampe entstand bereits zu Beginn des XIX. Jh.. Der erste Versuch mit Hilfe eines glühenden Leiters, Licht zu erzeugen wurde 1840 durchgeführt. Jedoch die erste, für eine massenhafte Nutzung brauchbare Glühlampe, wurde erst 39 Jahre später entwickelt! Ein Beispiel aus dem XX Jh.: die Idee des optischen Quantengenerators wurde
222
Strategie des Erfindens
1952 entwickelt65. Zwei Jahre später fanden bereits die ersten Tests solcher Geräte statt, und nach 6 Jahren begann man die ersten verschiedenartigen Laser industriell zu produzieren. Wobei der Prozess der Weiterentwicklung der Bauweise und Anwendung von Lasern nicht abgeschlossen ist. Die Größe von Lasern bewegt sich in Bereichen von Millimeteranteilen bis hin zu mehreren Metern, und die Strahlungsleistung experimenteller Laser könnte in einem kurzen Impuls die Gesamtkapazität der Kraftwerke der Vereinigten Staaten abdecken. Laser schreiben und lesen Informationen in Faxgeräten und von und auf Compactdiscs, können Menschen heilen und Messungen in der Atmosphäre durchführen. Laser ermitteln Entfernungen auf einer Strecke bis zum Mond, schneiden Metalle. Sie zeichnen auf Kristallen mit einer Größe von 1-2 cm2, künftigen Mikroprozessoren, mit mehreren Millionen (!) Elementarzellen für Schaltkreise und liefern großartige Licht- und Musikshows, die noch aus vielen Kilometern Entfernung zu sehen sind. Sie übertragen mit Lichtwellenleitern Tausende unserer Telefongespräche und erschaffen „in der Luft“ dreidimensionale „lebende“ Bilder ... Ja - für so etwas bekommt man Nobelpreise! Übrigens, sind Laser auch „Strahlen des Todes“, wie Herbert Wells66 und Alexej Tolstoj67 feststellten. Laser können von der Erde aus oder aus dem Weltraum Raketen und Flugzeuge in Brand setzen und sprengen, können Menschen töten. Doch das hat nichts mit dem technischen System zu tun, das liegt allein am Menschen, der damit umgeht. Genau so, wie man die Atomenergie als Waffe, aber auch als Energiequelle für den Menschen nutzen kann. Dafür gibt es viele Beispiele. Es ist bekannt, dass in der Menschheitsgeschichte die militärische Nutzung technischer Systeme eine der Hauptantriebskräfte ihrer Entwicklung war und ist. Was passiert aber mit Systemen, wenn sie ihre höchste Entwicklungsstufe erreicht haben (s. Etappe 1 auf der S-Kurve in Abb. 14.5)? Die Unausweichlichkeit des Ersatzes des Systems wird offenkundig, jedoch werden die Grenzen der Entwicklung des gegebenen Systems als Grenze der Entwicklung allgemein wahrgenommen. Die scheinbare Unmöglichkeit von dem gewohnten System sich verabschieden zu müssen, macht Angst und hypnotisiert. Der Ersatz des Systems kann gewaltigen Widerstand der Hersteller hervorrufen, die weiterhin diese Systeme produzieren, wie zum Beispiel für die Umwelt schädliche (riesige Flugzeuge, übergroße Tanker), oder solche, die in Widerspruch zu den Möglichkeiten anderer Systeme geraten sind (das Auto oder die Eisenbahn). So äußerte einst der Vizepräsident von General Motors John de Lorian folgenden Gedanken, wenn nur ein geringer Teil jener Mittel, die für die Verbesserung von Hubkolbenverbrennungsmotoren für die Entwicklung von Akkumulatoren verwendet würden, so hätten wir längst ein wirklich wirtschaftliches Auto.
65
Für die Entwicklung des Laserprinzips erhielten 1964 die Physiker N. Bassow, A. Prochorow (beide ex-UdSSR) und Ch. Townes (USA) den Nobelpreis 66 Herbert Wells (1866-1948) – bekannter englischer Roman- und Sciencefictionautor 67 A.Tolstoj (1883-1945) – bekannter russischer Schriftsteller, schrieb u.a. den Roman „Peter der Große“ und die phantastische Novelle „Der Hyperboloid des Ingenieurs Garin“
14 Steuerung der Systementwicklung
Abb. 14.7. Aus der Geschichte der Entwicklung von Schiffsschrauben (Anfang)
223
224
Strategie des Erfindens
Abb. 14.7. Aus der Geschichte der Entwicklung von Schiffsschrauben (Ende)
14 Steuerung der Systementwicklung
225
Der Übergang zu einem neuen System bedeutet bei weitem nicht immer das vollständige Ende der Anwendung des Systems der vorherigen Generation. So z.B. existieren nebeneinander Segelschiffe und moderne Dieselelektroschiffe, Düsen- und Propellerflugzeuge, Kino und Fernsehen, Gefrierfabriken und Gefrierschränke, Fahrräder und Autos, Restaurants und Küchen in der Wohnung, transportable und nicht transportable Fernsehgeräte und Radios usw. In den 30er Jahren vergrößerte sich die Zahl der Kinos sehr stark. Die theoretische Grenze hätte bereits lange, bevor auf jeden Menschen ein Kino kommt, erreicht sein müssen. Und etwas Ähnliches vollzog sich auch: es kamen die Fernsehgeräte – ein Kinosaal für eine Person! Es schien als würde das Fernsehen die nächste Stufe nach dem Kino werden, in dem es das Kino in sich als Subsystem aufnahm. Und gewissermaßen kam es auch dazu, besonders durch die Computersteuerung der Fernsehsysteme. Dennoch können wir heute die parallele Existenz von Kino und Fernsehen beobachten. Wobei hier auch ein Computer im Kino Audio- und Videoeffekte produziert, die derzeit noch nicht in den Räumlichkeiten einer Wohnung, wegen des fehlenden Volumens, reproduziert werden können. Dennoch lässt sich das Fernsehen als „Supersystem“ betrachten, d.h. als ein System, das vom Niveau her über dem Kino steht. Fernsehen ist auch – aktuellste Nachrichten, ein Konferenzraum und letztendlich, das Zeigen von Ereignissen in Real-Zeit. So ist es durchaus möglich, dass das Auto nicht von einem Elektromobil abgelöst wird, sondern von einem prinzipiell andern Transportsystem, in dem das Auto (oder ein äquivalentes Transportmittel) nur zu einem Subsystem wird. Diese Prognose hat Genrich Altschuller gemacht. Interessant ist, dass in Weißrussland in der Stadt Gomel gleichzeitig mit dieser Annahme noch ein Erfinder eine eben solche Hypothese aufstellte, die später dann zu seinem Lebensziel wurde - das war der junge Ingenieur Anatoli Junitzki (s. folgender Abschnitt 15.3 Integration alternativer Systeme). Im Abschnitt Strategie und Taktik des Erfindens werden kurz die Hauptprinzipien der TRIZ und Modelle für die Berücksichtigung objektiver Gesetzmäßigkeiten der Systementwicklung dargestellt. In sich sind diese Modelle gegenüber den Begriffen Fortschritt oder Rückschritt neutral. Ihre positive oder negative Bewertung hängt allein von moralischen Einschätzungen derer ab, die diese Gesetze anwenden. Jedoch haben wir die Hoffnung, dass sich im System dieser Modelle dennoch objektiv etwas global Positives manifestieren wird, was den Fortschritt vorantreibt, trotz Kriege und Krankheiten, trotz elementarer Katastrophen, ausgehend von der Natur oder Technik. Man kann versuchen, dieses global Positive auszudrücken, indem der Titel einer der interessantesten Erzählungen von Jack London68 zitiert wird – Love of Life (1905).
68
Jack London (1876-1916) – bedeutender amerikanischer Schriftsteller
226
Strategie des Erfindens
15 Klassische TRIZ- Modelle der innovativen Entwicklung 15.1 TRIZ-Gesetze der Systementwicklung Jetzt können wir auf der Grundlage des bisher Erwähnten das Hauptgesetz der TRIZ definieren, welches das ganz allgemeine Ziel des Erfindens zum Ausdruck bringt: GESETZ DES WACHSTUMS DER IDEALITÄT Alle Arten von Systemen streben in der Spanne ihres Lebenszyklus danach, ihre Effektivität zu erhöhen. Mit anderen Worten, Entwicklung ist Evolution in Richtung Vergrößerung der Effektivität. Das Wichtigste bei einer Erfindung ist, dass ein technisches System von einem Zustand in den andern übergeht, wobei dieser Übergang den Prozess der Entwicklung technischer Systeme widerspiegelt und nach objektiven Gesetzen abläuft. Betrachten wir die klassischen TRIZ-Gesetze, die noch bis zur Mitte der 1970er Jahre aufgestellt wurden. Diese Gesetze wurden in der TRIZ in drei Gruppen unterteilt und analog zu den Gesetzen der Mechanik als – „Statik“, „Kinematik“ und „Dynamik“ bezeichnet (Aufteilung in Gruppen u. Abb. 15.1 – in der Redaktion des Autors – O.M.). Klassische TRIZ-Gesetze für die Systementwicklung 1. „Statik“
2. „Kinematik“
3. „Dynamik“
1.1. Gesetz von der Vollständigkeit der Systemteile
2.1. Gesetz der ungleichmäßigen Entwicklung von Systemteilen
3.1. Gesetz von der Koordinierung des Rhythmus von Systemteilen
1.2. Gesetz von der „Energieleitfähigkeit“ eines Systems
2.2. Gesetz des Übergangs in ein Suprasystem 2.3. Gesetz des Übergangs vom Makroniveau zum Mikroniveau
3.2. Gesetz des Übergangs zu steuerbaren Ressourcen
Abb. 15.1. Gesetze der Systementwicklung in der klassischen TRIZ
Die Gruppe „Statik“ stellt „Gesetze“ dar, die den Beginn des Lebenszyklus technischer Systeme bestimmen.
15 Klassische TRIZ- Modelle der innovativen Entwicklung
227
1.1. Gesetz der Vollständigkeit von Systemteilen. Grundlegende Bedingung für die prinzipielle Lebensfähigkeit technischer Systeme ist das Vorhandensein der Hauptbestandteile des Systems und ihre minimale Funktionsfähigkeit. Jedes technische System muss über vier Hauptkomponenten verfügen: Antrieb, Übertragung, Arbeitsorgan, und Steuerelement. Dem lässt sich nur noch eine fünfte Komponente hinzufügen, ein alles verbindendes Teil – die Konstruktion (s. Abschn. 8.2 Ressource und Abb. 8.4 Abstrakte Maschine). Die hinreichende Bedingung der Lebensfähigkeit eines technischen Systems kann man als Konsequenz dieses Gesetzes folgendermaßen darstellen (was besonders nützlich für Anfänger beim Erfinden ist): ein technisches System ist nur dann lebensfähig, wenn jedes seiner Teile über eine minimale Funktionsfähigkeit verfügt, aber auch die minimale Funktionsfähigkeit aller seiner Teile als ein einheitliches System gewährleistet. Für die Praxis ist eine der Folgen dieses Gesetzes äußerst wichtig: damit ein System steuerbar ist, muss mindestens eines seiner Teile steuerbar sein. 1.2. Gesetz der „Energieleitfähigkeit“ eines Systems. Die notwendige Bedingung der prinzipiellen Lebensfähigkeit eines technischen Systems ist das Durchströmen von Energie durch alle Teile des Systems. Jedes technische System wandelt Energie um, die vom Antrieb über die Übertragungsmechanismen zum Arbeitsorgan weitergeleitet werden. Eine wichtige Folge dieses Gesetzes ist: damit ein Teil eines technischen Systems steuerbar ist, ist es notwendig die Energieleitfähigkeit zwischen diesem Teil und dem Steuerorgan zu gewährleisten. Man könnte das auch Informationsleitfähigkeit nennen, insbesondere bei Aufgaben zur Messung-Erfassung, obwohl diese oft auf die Energieleitfähigkeit reduziert wird, was zu einem falschen Verständnis der Aufgabe führen kann. Zur „Kinematik“ gehören in der TRIZ Gesetze, welche die Entwicklung technischer Systeme definieren, unabhängig von konkreten technischen und physikalischen Faktoren, die ihre Entwicklung bedingen. 2.1. Gesetz der ungleichmäßigen Entwicklung von Systemteilen. Die Entwicklung von Teilen eines Systems verläuft ungleichmäßig, und je komplizierter ein System ist, desto ungleichmäßiger ist die Entwicklung seiner Teile. Die Ungleichmäßigkeit der Entwicklung von Systemteilen ist der Grund für das Entstehen starker physikalisch-technischer Widersprüche, und demzufolge auch der Grund für erfinderische Aufgaben. So geriet z.B. der Anstieg der Anzahl von Autos in Mitteleuropa in Widerspruch zu den begrenzten Möglichkeiten, neue Straßen zu bauen. Des Weiteren müssen die vorhandenen Straßen ständig ausgebessert werden. Große Städte leiden katastrophal unter folgenden drei Problemen: Luftverschmutzung, Fehlen von Parkmöglichkeiten und die geringe Geschwindigkeit des Straßenverkehrs durch ständige Staus. 2.2. Gesetz des Übergangs in ein Suprasystem Wenn ein System seine Entwicklungsmöglichkeiten ausgeschöpft hat, wird es in ein Suprasystem als eines seiner Teile einbezogen. Lassen Sie uns hier nur ein Beispiel betrachten: das Fahrrad wurde, als es einen Verbrennungsmotor bekam, zum Moped und zum Motorrad! Jedoch gibt es aber
228
Strategie des Erfindens
auch immer noch das Fahrrad – wie wir bereits festgestellt hatten, ist die parallele Existenz vorheriger und folgender Systeme mit ein und derselben Zweckbestimmung möglich. 2.3. Gesetz des Übergangs vom Makroniveau zum Mikroniveau. Die Entwicklung der Arbeitsorgane technischer Systeme verläuft zunächst auf dem Makroniveau, im entwickelten System jedoch auf dem Mikroniveau. In den meisten modernen mechanischen Systemen stellen die Arbeitsorgane Makro-Details dar, z.B. der Propeller eines Flugzeugs oder der Meißel einer Drehbank. Als Meißel kann ein Plasmastrom dienen. In Düsenflugzeugen ist das Arbeitsorgan ein Luftstrahl. Anstelle von Makro-Details wird hier die Funktion auf dem Niveau von Stoffteilchen realisiert, von Molekülen, Ionen, Atomen. Eine unerschöpfliche Energiequelle bleibt die Kernenergie, die entweder bei der Spaltung oder der Fusion gewonnen werden kann. Der Übergang von der Entwicklung auf der Makroebene zur Entwicklung auf der Mikroebene bildet das Wesen der Computerrevolution. Die Gesetze der „Dynamik“ sind in der TRIZ nur unvollständig und tragen einen eher spezialisierten Charakter. Sie definieren die Entwicklung moderner technischer Systeme unmittelbar in Abhängigkeit von konkreten technischen und physikalischen Faktoren. 3.1. Gesetz der Koordinierung der Rhythmik von Systemteilen. Eine notwendige Bedingung für die prinzipielle Lebensfähigkeit technischer Systeme ist die Koordinierung der Rhythmik (Frequenz der mechanischen oder elektromagnetischen Schwingungen, Periodizität der Funktion und Interaktion) aller Teile eines Systems. 3.2. Gesetz des Übergangs zu steuerbaren Ressourcen Die Entwicklung von technischen Systemen verläuft in Richtung Anwendung von Ressourcen mit einem höheren Organisationsniveau, z.B. besser steuerbare Stoffe und Felder. Dieses Gesetz steht in enger Verbindung mit dem Gesetz der Energieleitfähigkeit von Systemen und des Anstiegs der Idealität. So ist in einem linearen Schrittmotor das Arbeitsorgan ein elektromagnetisches Feld. Informationssysteme, beginnend bei den ersten elektromechanischen Telegrafenkonstruktionen, haben sich bis heute zu modernen Radio- und Optiksystemen mit hochorganisierten Feldern als Träger von Informationen entwickelt. Das Elektronenmikroskop hat die Möglichkeiten, den Aufbau von Stoffen zu untersuchen, im Vergleich zu optischen Mikroskopen, grundlegend verändert. Das Gerät zum Erwärmen von Lebensmitteln auf der Basis von Mikrowellen führte zu einer Revolution in den Küchen moderner Haushalte! Das Herausstellen voneinander isolierter Gesetze ist natürlich eine Vereinfachung. Gesetze wirken in ihrer Gesamtheit, und gewährleisten so die reale Entwicklung von Systemen. Die Kenntnis der Gesetze ermöglicht zusammen mit der Bewertung der Parameter der S-Kurve für den gegebenen Typ eines Systems, die Prognose der Entwicklungstendenz praktisch jedes technischen Systems durchzuführen.
15 Klassische TRIZ- Modelle der innovativen Entwicklung
229
15.2 Linien der systemtechnischen Entwicklung Die TRIZ-Gesetze werden durch so genannte „Linien der systemtechnischen Entwicklung“ vervollständigt und instrumentiert. Das sind sehr umfangreiche MetaModelle, welche die Haupttendenzen bei der Systementwicklung zum Inhalt haben. Die Anwendung dieser Modelle bei der Lösung Ihrer Aufgaben erfordert in der Regel umfangreiche Voruntersuchungen. Das lässt sich damit erklären, dass ja alle Entwicklungslinien auf der Geschichte und den Prognosen für die Entwicklung des zu verbessernden Objekts und seiner Systemumgebung beruhen. Im vorliegenden Lehrbuch wollen wir diese jetzt folgenden Meta-Modelle kurz charakterisieren: 1) Linie des Anstiegs des Grads der „Idealität“; 2) Mehrfachbildschirm; 3) Linie des Ersatzes des Menschen beim Funktionieren von TS; 4) „Evolutionswelle“; 5) Lange ökonomische Wellen (Zyklen) von Kondratjew; 6) Übergänge in Suprasysteme – Subsysteme; 7) Linien „Mono – Bi / Poly – Mono“; 8) Linien der Ressourcenentwicklung. 15.2.1. Meta-Modell Linie des Anstiegs des Grads der „Idealität“. Es gab in der Menschheitsgeschichte nur wenige Entdeckungen und Erfindungen, die an den Grundfesten der menschlichen Gesellschaft rüttelten und der Entwicklung der Zivilisation einen gewaltigen Impuls gaben. Dazu gehörte z.B. die Verbreitung des Buchdrucks, Entdeckung und Anwendung magnetischer Felder in einem breiten Bereich von Frequenz und Erscheinungsform, Weltraumfahrt, Entwicklung des Computers als Maschine für die Informationsverarbeitung, Biound Gentechnologie. Eine historisch-technische Analyse zeigt, dass diesen revolutionären Veränderungen mehr oder weniger lange Perioden nur langsamen Wachstums oder des Stillstands bei der Entwicklung lebenswichtiger Funktionen für die Menschheit vorangingen. So können wir folgende Beispiele, die besonders Westeuropa betreffen, anführen: - Zugfahrpläne haben sich in den letzten Jahrzehnten kaum geändert, da die realen Geschwindigkeiten (nicht Rekorde) und die Kapazität der Bahn schon längst ihre technischen Grenzen erreicht haben. Auch ein Ersatz der bestehenden Bahnschienen durch Linien mit magnetischer Aufhängung kann keine grundlegende Veränderung bringen. Diese Entwicklung führt auch nur in eine Sackgasse und kommt einige Jahre zu spät; - die Geschwindigkeit und Kapazität von Autobahnen ist begrenzt und tendiert immer mehr zu Staus, die immer länger werden. Der Schaden durch Zeitverluste beim Autoverkehr wird allein in Deutschland auf zweistellige Milliardenhöhe geschätzt! - der Wirkungsgrad von Atom- und Wärmekraftwerken ist bei 30% stehen geblieben, es müssen neue Energiequellen gefunden werden; - die Ertragsfähigkeit von Getreidekulturen, eine der Hauptnahrungsquellen der Menschheit, hat fast ihre Grenzen erreicht;
230
Strategie des Erfindens
- die Natur hat gerade jetzt die Intensivierung der Viehzucht streng eingeschränkt – Zuwiderhandlungen können zum Ausbruch gefährlicher Tierseuchen führen. Diese und viele andere Anzeichen für eine Verlangsamung zeugen auch davon, dass man gerade hier große Erfindungen erwarten kann. In jeder neuen Richtung wird es zu einem Wachstum der MPF kommen, und auch die MPF damit verbundener anderer Bereiche der Technik werden wachsen. Im Weiteren verlangsamt sich dann das Wachstum der MPF dieses Bereichs (s. Abb. 14.3: dieser Bereich geht in Richtung Höhepunkt der S–Kurve in den Abschnitt 1). Es ist interessant, die Veränderung der Quantität 1 und der Qualität (Niveau) 2 von Erfindungen in unterschiedlichen Bereichen zu verfolgen (Abb. 15.2). Unmittelbar nach einer bahnbrechenden Erfindung auf höchstem Niveau (4 oder 5) kommt es zu einer gewissen Verlangsamung bei Erfindungen auf diesem Gebiet. Zu einem richtigen Durchbruch kommt es im Bereich (a), wenn Hilfserfindungen gemacht werden, die manchmal ein hohes Niveau haben (3 oder 4) und somit hinreichende Bedingungen für die industrielle Produktion dieses Erzeugnisses schaffen. Zu Beginn der Produktion verringert sich zwischen den Bereichen S-Kurve 3 (c) (a) und (b) die Quantität von Erfin(a) dungen, da vorsichtige Produzenten 1 die ersten Tests und Verkäufe abwarten. Bei Erfolg kommt es zu einem Erfindungsboom, der sich auf die Verbesserung sowohl des 2 (b) Produkts als auch der Technologie richtet. Im Bereich (c) ist das Zurückgehen der Anzahl von Patenten und deren Ausrichtung auf kleinere Abb. 15.2. Veränderung der Quantität 1 und des Verbesserungen ein deutliches ZeiNiveaus 2 von Erfindungen im Intervall des chen für die vollständige Entfaltung Lebenszyklus des Systemtyps; 3 – Entwicklung der Produktion und des Verkaufs. eines neuen Systems
Im Bereich (c), und nicht selten sogar früher, kann es zu ernsthaften Veränderungen im System des vorliegenden Typs kommen, die auf ein Überleben gerichtet sind, für den Fall, dass alternative Systeme 3 mit denselben Funktionen entstehen. Insgesamt wird diese Situation von den Linien des Wachstums der Idealität eines Systems des vorliegenden Typs charakterisiert, dargestellt in Abb. 15.3. Ausgangssystem
Entwicklung im Rahmen der Ausgangskonzeption
Übergang zu einem prinzipiell neuen System
Abb. 15.3. Linie des Wachstums der „Idealität“
15.2.2. Meta-Modell Mehrfachbildschirm. Erfinder, die mit den Entwicklungsgesetzen technischer Systeme nicht vertraut sind, entwickeln eine Vielzahl
15 Klassische TRIZ- Modelle der innovativen Entwicklung
231
unterschiedlicher Varianten einer Lösung. Als lebensfähig erweisen sich nur die „Mutationen“, welche in die Richtung der objektiv bestehenden Entwicklungsgesetze gehen. In der Technik aber gibt es eine Möglichkeit, die Erfahrungen von „Mutationen“ zu akkumulieren, Regeln für gelungene Veränderungen aufzustellen und sie bewusst und gerichtet einzusetzen. So kann talentiertes Denken eine neue Struktur erlangen. G. Altschuller beschreibt bildhaft die Möglichkeiten einer neuen Organisation des Systemdenkens von Erfindern. Gewöhnlich ist es so, wenn in einer Aufgabe das Wort „Baum“ erwähnt ist, sieht der Mensch auch irgendeinen Baum. Die Phantasie entwickelt also ein bestimmtes Bild der Aufgabe. Wenn der Mensch die Bedingungen gelesen hat (dargestellt als ?), schaltet er sofort einen gedanklichen Bildschirm ein und projiziert darauf ein Bild der Lösung 1 (Abb. 15.4).
?
1
Abb. 15.4. Einfache „eindimensionale“ Denkbildschirme
Die gerichtete Auswahl von Varianten führt dazu, dass viele solcher Bilder entstehen können. Der Baum wird mal kleiner, mal größer, prinzipiell ändert sich aber nichts. Oft endet es damit auch schon: die Antwort wurde nicht gefunden, die Aufgabe wurde nicht gelöst. Das ist das übliche Denken. Eine talentierte Phantasie schaltet gleichzeitig drei Bildschirme ein. (Abb. 15.5). Wir sehen das Suprasystem 2 (Baumgruppe), das System 1 (Baum) und das Subsystem 3 (Blatt). Das ist natürlich ein Minimalschema. Oft werden auch andere Bildschirme einbezogen (obere oder untere): Supra-Suprasystem (Wald) und Sub-Subsystem (Zelle eines Blatts). Noch wichtiger ist aber, alles in seiner Entwicklung zu sehen. Dann müssen noch seitliche Bildschirme einbezogen werden, welche die Vergangenheit und Zukunft auf jedem Niveau zeigen (Abb. 15.6). Mindestens neun (!) Bildschirme widerspiegeln im System gesehen und dynamisch die systematische und dynamische Welt. 2
5
2
8
4
1
7
6
3
9
Zeit 1
3
Abb. 15.5. „Dreier-Bildschirm“: System-Suprasystem-Subsystem
Abb. 15.6. „Neuner-Bildschirm“: Schema des talentierten Denkens
232
Strategie des Erfindens
Bsp. 96. Dattelpalme. Pro Saison kann eine Dattelpalme 240 l süßen Saft liefern, aus dem Palmzucker gewonnen wird. Für das Auffangen des Safts muss man aber einen Schnitt in den Stamm der Palme, direkt unter der Krone, machen. Und das in 20 Metern Höhe! Diese Aufgabe wurde einer Firma übertragen, die Landmaschinen und Landmaschinentechnik herstellt. Die Fachleute dort versuchten es mit einem „alpinistischen Verfahren“ – der Mensch klettert hoch, indem er Stufen in den Stamm schlägt. Dieses Verfahren erwies sich aber als ungeeignet: viele Stufen – der Baum stirbt, wenig Stufen – es ist schwer, hochzuklettern. Darauf versuchte man, etwas wie ein Feuerwehrauto mit einer ausziehbaren Leiter zu entwickeln. Wie aber staunten die Konstrukteure, als sie erfuhren, dass Bauern in Bangladesch ein Geheimnis haben, das ihnen ermöglicht, auf Palmen ohne jede Maschine heraufzukommen. Diese Aufgabe lässt sich nicht lösen, wenn nur der Bildschirm 1 eingeschaltet ist. Es lohnt sich aber, die Bildschirme 1 und 4 gemeinsam zu betrachten, und zu erkennen, wie die Lösung sichtbar wird. Auf dem Bildschirm 4 ist eine kleine Palme. Sie gibt noch keinen Saft, aber bei ihr kann man Einschnitte machen – die künftigen Stufen. Von ein bis zwei Stufen im Jahr stirbt ein Baum nicht. Im nächsten Jahr kommen dann wieder ein paar Einschnitte hinzu. Und bis zu der Zeit, wo der Baum herangewachsen ist und Saft geben kann, hat sich am Stamm eine Leiter gebildet. Eine andere Lösung erhält man, wenn man den Bildschirm 2 einschaltet. An einen Baum muss eine Leiter gestellt werden. Wenn aber zwei Bäume nebeneinander wachsen, bilden ihre Stämme fast eine Leiter, es fehlen nur noch die Stricke zwischen ihnen – und wir haben eine Strickleiter. G. Altschuller betonte: das ist noch nicht der komplizierteste Fall – 9 Bildschirme. Geniales Denken erfordert die Arbeit mit noch mehr Bildschirmen, z.B. 27! Hier wird parallel zu den ersten 9 Bildschirmen die Evolution mit- und entgegenwirkender Systeme zusammen mit ihren Sub- und Suprasystemen betrachtet. In der TRIZ wurde das Ziel gestellt, der Organisation des Denkens Regeln zu verleihen, die dem Schema Mehrfachbildschirm, auf der Grundlage von Gesetzmäßigkeiten der Systementwicklung, entsprechen. Das Denken mit Mehrfachbildschirmen ermöglicht es, viele dramatische Fehler zu vermeiden. Ein Erfinder ist normalerweise ungeduldig und geneigt, seine Mission als beendet zu betrachten, wenn die erste Lösung der Aufgabe gefunden ist. Das Ergebnis ist oft, dass eine neue technische Idee nur teilweise, nicht in vollem Umfang genutzt wird. 15.2.3. Meta-Modell Linie des Ersatzes des Menschen beim Funktionieren von TS. Eine der Hauptlinien der systemtechnischen Entwicklung von TS ist der Ersatz des Menschen beim Funktionieren von TS (Abb. 15.7). Ersatz auf dem ausführenden Niveau
Ersatz auf dem Niveau der Steuerung
Ersatz auf dem Informationsniveau
Abb. 15.7. Funktionaler Ersatz des Menschen bei der Entwicklung technischer Systeme
15 Klassische TRIZ- Modelle der innovativen Entwicklung
233
So erfolgte auf dem ausführenden Niveau der Ersatz der Hände, Beine und Muskelkraft des Menschen durch künstliche Instrumente, Mechanismen und andere Energiequellen. Auf dem Niveau der Steuerung ging der Ersatz in Richtung Entwicklung von automatischen Regulatoren, Kopier- und Bearbeitungsmaschinen, Autopiloten und Autonavigatoren usw. Auf dem Informationsniveau begann der Ersatz mit Instrumenten für die Informationsgewinnung – verschiedene Sensoren und Messgeräte, deren Empfindlichkeit, Genauigkeit und Arbeitstempo etwas höher war als das der menschlichen Sinnesorgane. Im Weiteren wurde der Mensch in Subsystemen zur Gewinnung und Verarbeitung von Informationen und zur Vorbereitung und Annahme von Lösungen ersetzt. Eine paradoxe negative Tendenz der Entwicklung von TS (ein doppelter negativer Super-Effekt!) ist der Ersatz des Menschen in der Natur! Die Technosphäre, die vom Menschen entwickelt wurde hat einen negativen Einfluss auf die Natur und kann sie zerstören, und das bedeutet, die Menschheit selbst würde zerstört. Entsprechend neuester Erkenntnisse entstand die Erde vor ca. 4 Mrd. Jahren. Während sich die lebenden Organismen entwickelten und den derzeit auf der Erde existierenden Bedingungen anpassten, begannen sie die Umwelt zu verändern. Diese Transformationen führten zum Entstehen der sauerstoffhaltigen Atmosphäre, des Bodens, der Ozonschicht, der heutigen Landschaft mit ihren Wäldern, Flüssen, Seen, Sümpfen, der Tundra, der Taiga und der Dschungel. So entstand die Biosphäre, in der sich Millionen Arten lebender Organismen und der von ihnen transformierte Planet ideal aneinander angepasst haben. Es gab hier nichts Überflüssiges. Und nun tauchte der Mensch auf, der dank seines Verstandes seine Muskelkraft, seine Sinnesorgane und seinen Intellekt stärkte und anfing, die Technik und technologische Prozesse zu entwickeln. Die heutige industrielle Macht der Zivilisation ist ausschließlich eine logische Entwicklung der technokratischen Richtung. Die expansive Entwicklung technischer Systeme hat aber auch einen negativen Einfluss auf die Natur. Die Technosphäre braucht keinen Boden. Deshalb gibt es auf der Erde immer weniger fruchtbaren Boden, dafür immer mehr Schlacke, tote Wüsten und Einöden. Die Technosphäre braucht keine sauerstoffhaltige Atmosphäre. So verbraucht bereits heute die Industrie der USA mehr Sauerstoff als die Grünpflanzen auf dem Territorium der USA produzieren können. Die USA lebt auf Kosten des Sauerstoffs, der in der russischen Taiga und in den Regenwäldern des Amazonas produziert wird. Was wäre, wenn alle Länder dieses Niveau des Sauerstoffverbrauchs erreichen würden? Die Technosphäre braucht keine Ozonschicht in der Atmosphäre. Wenn auch das Ozon nur einen verschwindend kleinen Bruchteil (1/10 Mio.) der Atmosphäre ausmacht, so absorbiert es doch ca. 4% der Sonnenenergie, die auf die Erde gelangt. Das ist hundertmal mehr als die Wärmemenge, die heutzutage von der modernen Industrie in die Atmosphäre abgegeben wird. Deshalb ist der Einfluss des Zustands der Ozonschicht auf das Wetter und Klima auf der Erde
234
Strategie des Erfindens
bedeutend stärker einzuschätzen als der technogene Einfluss und auch als der Treibhauseffekt. Die Technosphäre braucht keine lebendige Natur. Die Anzahl von Krebserkrankungen, Allergien, Lungen-, Herz- und Kreislauferkrankungen, genetischen und Erbkrankheiten, die durch Wasser-, Luft- und Bodenverschmutzung verursacht werden, steigt stetig. Das trifft auch für Krankheiten von industriell gezüchtetem Nutzvieh zu, das für die menschliche Ernährung bestimmt ist. Äußerst gefährlich ist noch immer der AIDS-Virus, besonders wenn analoge Viren auftreten. Die Landschaft verändert sich unumkehrbar – Bodenerosion, Waldsterben, Gewässerverschmutzung, Trinkwasserverseuchung. Die Technosphäre besetzt dieselbe ökologische Nische wie die Biosphäre insgesamt: Maschinen, Mechanismen, technische Anlagen auf der Erde und unter der Erde, im Wasser und in der Luft, befinden sich auch in einem aktiven Stoff- und Energieaustausch mit diesen Elementen. Der einzig konsequente Ausweg aus dieser komplizierten Situation ist: es muss der Technosphäre, besonders ihrem industriellen und energetischen Teil, eine Nische außerhalb der Biosphäre zur Verfügung gestellt werden! Das könnte den Erhalt und die Entwicklung der Biosphäre nach den Gesetzen, die sich im Verlauf von Milliarden Jahren der Evolution herausgebildet haben, gewährleisten. Und so könnte eine harmonische Wechselwirkung der Menschheit als biologisches Objekt mit der Biosphäre erhalten werden. Eine solche ökologische Nische gibt es auf der Erde nicht. Aber es gibt sie im Weltall, wo die meisten technologischen Prozesse ideale Bedingungen vorfinden: Schwerelosigkeit, Vakuum, extrem hohe und tiefe Temperaturen, uneingeschränkte Energie-, Raum- und sogar Rohstoffressourcen. Um sich das Weltall in großen Maßstäben nutzbar zu machen, hat die Menschheit nicht mehr viel Zeit. Prognosen zufolge wird in ein bis zwei Generationen (höchsten noch 50-80 Jahre!) eine unumkehrbare Degeneration der Biosphäre, wegen der technokratischen Aggression gegen sie, beginnen. Damit würde auch das Aussterben der Menschheit eingeläutet. Die Nutzbarmachung des nahen Weltraums ist keine Erfindung von Phantasten, sondern ein reales Vorhaben für die Rettung des Lebens auf der Erde. 15.2.4. Meta-Modell „Evolutionswelle“. Die Erhöhung der „Idealität“ komplizierter Systeme, wird durch zwei gegenläufige Prozesse gewährleistet: Expansion – die Erhöhung der Quantität und Qualität ausgeführter Funktionen wird durch ein komplizierteres System gewährleistet; Kontraktion – die Erhöhung (Erhaltung) der Quantität und Qualität ausgeführter Funktionen bei gleichzeitiger relativer Vereinfachung des Systems. Die Vereinfachung ist deshalb relativ zu sehen, weil in der Regel die Anzahl der Elemente geringer wird. Dabei sinkt jedoch die „Kompliziertheit“ nur durch eine höhere Organisation des Stoffes und der Energie in den Elementen. Prozesse der Expansion-Kontraktion können sich bei verschiedenen Systemarten ein und desselben Typs abwechseln und parallel verlaufen, d.h. es können gleichzeitig unterschiedlich komplizierte Systeme ein und desselben Typs in ihren Nischen der Technosphäre existieren.
15 Klassische TRIZ- Modelle der innovativen Entwicklung
235
Insgesamt stellt man in der TRIZ die Gesamtwirkung von Prozessen der Expansion-Kontraktion als so genannte „Evolutionswellen“ von Systemen71 dar (Abb. 15.8). Die Trapeze zeigen Prozesse, die für die entsprechende Periode wesentlich sind. 4
Koordination der Rhythmik der Teile Durchlauf der Energie Vollständigkeit der Teile
Nichtlinearität und Selbstregulierung
3 1
2
Übergang auf das Mikroniveau
Ausgliedern einzelner Teile Koagulation in Kontraktion in ein ein Arbeitsorgan Arbeitsorgan
Übergang zum idealen Stoff Anstieg der nützlichen Hauptfunktion
Abb. 15.8. Meta-Modell „Entwicklungswellen“ technischer Systeme: 1 – Expansion; 2 – Kontraktion; 3 – Veränderung der relativen Kompliziertheit eines Systems; 4 – Integration mit anderen Systemen
Bsp. 97. Elektronik und Computer. Ein hervorragendes Beispiel für die Vielfalt und den Fortschritt, in dem die Gesetzmäßigkeit der Expansion-Kontraktion von Systemen vollständig realisiert wurde, ist der Computer. Sie können in jedem Buch zur Geschichte des Computers ab Mitte der 1940er Jahre bis zu Beginn des Jahres 2006 nachlesen und werden dort die Bestätigung dieser Gesetzmäßigkeit finden. Kurz zu folgenden Beispielen: die ersten Röhrencomputer hatten eine geringere Rechenleistung, als jeder moderne multifunktionale Taschenrechner. Sie bestanden aus vielen Metallschränken, die ganze Räume füllten. In den letzten 8 Jahren (seit 1998) vollzog sich ein gewaltiger Wachstumsschub bei der Taktfrequenz von Computern. Das führte zu einem großen Anstieg der Produktivität von PCs und tragbaren Computern von etwa 200 MHz auf 1000 MHz (1 GHz) bei gleicher Größe der Konstruktionen. Führende Firmen stellen auch weiter Rechenkomplexe her, die aus mehreren Tausend Prozessoren bestehen (Expansion!). Hierfür gibt es eine Menge Beispiele, besonders wenn die funktionalen Möglichkeiten und die Integration mit Steuerungssystemen berücksichtigt werden. Viele solcher Beispiele können Sie leicht finden, wenn Sie gedanklich die Veränderung von Radio- und Fernsehgeräten, Audio- und Videorekordern und Telefonen nachvollziehen. Die Linien der Expansion (a) und der Kontraktion (b) sind in der Abb. 15.9. dargestellt.
71
Die Abbildung wurde einem Werk von J. Salamatow aus dem Sammelwerk Chance für ein Abenteuer/ Hg.– A. Seljutzki nachempfunden. – Petrosawodsk, 1991 (russ.)
236
Strategie des Erfindens
Entwicklung eines funktionalen Kerns
a) Expaniertes System
b)
Einbeziehung zusätzlicher Subsysteme
Anstieg der Anzahl von Hierarchiestufen im System
Übergang zu retikularen (netzförmigen) Strukturen
Expansion Minimale Kontraktion
Teilweise Kontraktion
Vollständige Kontraktion
Kontraktion
Abb. 15.9. Meta-Modell „Expansion – Kontraktion“ technischer Systeme
Bsp. 98. Mikroprozessor und RAM. Beispiel für eine teilweise Kontraktion: der operative Speicher RAM eines PCs besteht heute aus mehreren konstruktiven Mikrochips. Vollständige Kontraktion: Mikroprozessor an einem Kristall oder in Form eines einzelnen Bauelements (Mikroschema). 15.2.5. Meta-Modell „Lange ökonomische Wellen (Zyklen) von Kondratjew“. Bei Wirtschaftswissenschaftlern ist das Modell des zyklischen Charakters der Entwicklung der Wirtschaft gut bekannt, welches durch „Wellen“ charakterisiert wird. Sie haben die Stadien: Aufschwung, Prosperität, Rezession und Depression. Die Grundlage eines jeden Zyklus bilden große Entdeckungen und Erfindungen, die in der Regel in den Zeiträumen der Depression gemacht werden. Sie bilden den Ausgangspunkt einer erneuten technischen Rekonstruktion der Zivilisation und folglich des Aufschwungs der Wirtschaft. Dieses Modell wurde 1925 in Russland vom Wirtschaftswissenschaftler N. Kondratjew entwickelt und bald auf der ganzen Welt anerkannt. In Ländern mit sehr hohem Entwicklungsstand weichen diese Wellen zeitlich ab und haben spezifische Besonderheiten, dennoch wirkt dieses Gesetz in allen ökonomischen Systemen. Außerdem sind diese Prozesse wegen des immer stärker wachsenden Weltmarkts auch für die Weltwirtschaft charakteristisch. Diese Wellen müssen prognostiziert und bei der strategischen Planung für die Entwicklung neuer technischer Systeme berücksichtigt werden. So bildeten Erfindungen wie die Dampfmaschine und der Webstuhl die Grundlage der Entwicklung des XVIII. Jahrhunderts. Der zweite Zyklus, der im XIX. Jahrhundert ablief, stand mit der Entwicklung von Metallurgie und Eisenbahnverkehr in Verbindung. Im XX. Jahrhundert lief der dritte Zyklus ab. Er war mit Entwicklungen auf dem Gebiet der Elektrotechnik, Chemie und des Automobilbaus verbunden. Der vierte Zyklus hatte seine Grundlage in der Entwicklung des Flugzeugbaus, der makromolekularen Petrochemie und der Elektronik. In einer Reihe von Prognosen finden sich Aussagen darüber, dass der Anfang des XXI Jahrhunderts von einem neuen wirtschaftlichen Aufschwung begleitet wird. Der prognostizierte fünfte Zyklus steht mit der Entwicklung eines ganzen Komplexes von Bereichen in Verbindung: Biotechnologie, Lasertechnik,
15 Klassische TRIZ- Modelle der innovativen Entwicklung
237
Mikroelektronik und Nanotechnologie, Kommunikationssysteme wie das Internet, künstliche Intelligenz, Weltraumindustrie. Ebenso muss die Qualität des Straßenund Bahnverkehrs dringend verändert werden. 15.2.6. Meta-Modell Übergänge in Suprasysteme-Subsysteme. Dieses MetaModell steht in enger Beziehung zum Modell Expansion-Kontraktion, hat aber einige spezifische Besonderheiten. Und zwar dann, wenn das Ausgangssystem „verschwindet“, seine Funktionen aber erhalten bleiben, sie jedoch entweder an ein Suprasystem, oder an den weiterentwickelten Teil des selben Systems übertragen werden. Man sollte auch berücksichtigen, dass viele Typen von Systemen mit ähnlicher Funktion lange Zeit nebeneinander, zeitlich parallel existieren, und dabei ihre Nischen in der Technosphäre einnehmen. Dieses Verfahren ermöglicht dem neuen System B, den funktionalen Widerstand seitens des „alten“ Systems A und den blockierenden Einfluss der Hersteller des Systems A zu überwinden (s. Schema 14.1). Das bedeutet, dass die Konkurrenz des neuen Systems mit dem alten nicht so dramatisch ausfällt. Im Prinzip können wir uns auch ein solches Idealbild vorstellen, wo große Produzenten technischer Systeme auf ihre eigennützigen ökonomischen Interessen verzichten und immer als Initiatoren und Entwickler progressiver Innovationen im großen Maßstab auftreten. Die Formel für den Übergang zum Suprasystem lautet: ein neues System B löst ein System A ab und nimmt dabei das System A als ein Subsystem in sich auf. Bsp. 99. Distanzkontrolle. Systeme der ferngesteuerten Datensammlung von Gas-, Energie-, Wasser-, Heizungszählern u.ä. – Das Ablesen von Wasser-, Gasund Stromzählern in Wohnungen wird hierbei durchgeführt, ohne dass ein Mitarbeiter der entsprechenden Firma in die Wohnung des Abnehmers gehen muss. Sie wird durch Fernabfrage aus einem Fahrzeug realisiert, das auf der Straße fährt und eine Funkverbindung mit den Zählern in den Wohnungen und allen anderen Gebäuden hat. Die Funktion der Datensammlung wurde an ein Suprasystem übergeben. Dieses Beispiel lässt sich leicht fortführen, wenn z.B. die Geräte ans Internet angeschlossen würden. So wurde das Gerät Zähler Teil eines Suprasystems, da eine der wichtigsten Funktionen – die „Übertragung“ der Werte technisch an ein Suprasystem angeschlossen wurde, welches diese Werte auch empfangen soll. Hier bedeutet Innovation Expansion des Suprasystems und Kontraktion des Subsystems. Die Formel für den Übergang in ein Subsystem lautet: ein neues System B löst ein System A als eines der ehemaligen Subsysteme ab und vereinigt dabei in sich alle Funktionen des Systems A. Bsp. 100. Elektromotor-Rad. Die ersten großen Abraumbagger wurden nach einem traditionellen Schema gebaut: „Dieselmotor – Elektrogenerator – Elektromotor – Übertragungsmechanismen auf jedes Rad – Räder“. Später wurde ein Bagger mit folgendem Schema entwickelt: „Dieselmotor – Elektrogenerator – Elektromotor – Räder“, hierbei wurde in jedes Rad ein Elektromotor eingebaut. Das vereinfachte das System deutlich, da die Regelung der Leistung und Drehzahl eines Elektromotors bedeutend einfacher ist, als eine mechanische Transmission. So konnten mechanische Transmissionen vollkommen ausgeschlossen werden und diese Funktion wurde vom Rad-Motor übernommen, wobei der Motor ein Teil des
238
Strategie des Erfindens
Rads wurde! Der Super-Effekt einer solchen Kontraktion war, dass die Bagger sich besser steuern ließen. Hier erfolgte faktisch einerseits die Kontraktion des ehemaligen Antriebssystems zu Rädern und andererseits die Expansion der Räder. 15.2.7. Meta-Modell Linien „Mono – Bi / Poly – Mono“. Dieses Modell wird oft mit dem gerade erwähnten Modell verwechselt. Sie haben auch wirklich Ähnlichkeiten, was den Mechanismus der Herausbildung neuer Systeme betrifft. Im Modell Übergang zum Subsystem-Suprasystem bleibt das System A erhalten. Entweder als Teil in der Struktur des Systems mit dem höheren Rang (das Suprasystem für die Datensammlung schließt die ursprünglichen Messgeräte als Informationsgeber ein), oder als Teil des Systems mit einem niedrigeren Rang. Die Linien „Mono – Bi / Poly – Mono“ (Abb. 15.10) zeigen die Möglichkeit der Bildung von Systemen desselben Rangs, nur mit unterschiedlichen Stufen der Komplexität und Funktionalität. Jetzt, nachdem wir den Sachverhalt konkretisiert haben, können wir sagen, dass dieses Modell auch als Mechanismus für den Übergang zum Supra- oder Subsystem angewendet werden kann. Das ist aber nicht sein Hauptzweck. Das technische Ausgangssystem (Monosystem) verdoppelt sich durch die Bildung eines Bi-Systems, vergrößert sich auf ein Vielfaches, wenn mehrere Systeme zu einem Polysystem vereinigt werden. Wie in der Abb. 15.10 zu erkennen ist, können sich Systeme mit gleichen Funktionen, mit Funktionen, die Unterschiede in ihren Parametern haben (mit Mischeigenschaften), sowie verschiedenartige und inverse (entgegengesetzte) Funktionen vereinigen. In all diesen Fällen ist das Hauptkennzeichen einer Erfindung das Entstehen einer neuen Systemqualität, die im Einzelnen bei den früher bestehenden Systemen fehlt. Bsp. 101. Messerbesteck. Wenn man ein Messer als Monosystem mit einem anderen Messer verbindet, erhält man eine Schere, die andere Eigenschaften hat. Wenn wir ein Metallplättchen mit einem bestimmten Ausdehnungskoeffizienten parallel mit einem Plättchen verbinden, das einen anderen Ausdehnungskoeffizienten hat (d.h. dieselbe Funktion, jedoch mit einem anderen Parameter), erhalten wir ein Bimetallplättchen mit einer neuen Eigenschaft, es verbiegt sich bei Erhitzung (Abkühlung). Wenn wir Plättchen, die denselben Ausdehnungskoeffizienten haben, nur in entgegengesetzter Ausdehnungsrichtung miteinander verbinden (positive und negative), so erhalten wir ein Bi-System mit einem Nullkoeffizienten der Ausdehnung! Bsp. 102. Flugzeugflügel. Ein Re-Inventing nach dem Meta-Modell „Mono – Bi / Poly – Mono“ finden Sie in der Abb. 15.11. Historisch gesehen entwickelten sich alle Arten von Flugzeugflügeln parallel: Eindecker, Doppeldecker und Mehrfachdecker. Bald schon erreichten Doppeldecker größere Effektivitätskennziffern, obwohl das Bestreben, die Fluggeschwindigkeit immer mehr zu erhöhen dazu führte, dass vorrangig Eindecker weiterentwickelt wurden. Doppeldecker, die eigentlich weniger Ansprüche an den Aufbau von Start- und Landeplätzen stellen, wurden nach und nach von den schnelleren Eindeckern verdrängt. Mehrfachdecker gerieten Ende der 1930er Jahre ganz und gar in Vergessenheit. Diese Richtung schien perspektivlos. Theorien wurden hauptsächlich für Ein- und teilweise für Doppeldecker weiterentwickelt. Eindecker erreichten Ultraschallgeschwindigkeiten, in
15 Klassische TRIZ- Modelle der innovativen Entwicklung
239
Höhe von 5, 7 und 10-facher Schallgeschwindigkeit und Rekordhöhen von mehr als 100 km (ausschließlich Militärmaschinen)! Dennoch blieben einige Eigenschaften der Eindecker teuer. So sind Eindecker-Flügel schwer herzustellen und zu steuern und haben ein hohes Gewicht. Mono-System
KONTRAKTION KOAGULATION
EXPANSION ENTFALTUNG
Bi- oder Polysystem
Gleichartige Funktionen
Mit gleichartigen Eigenschaften
Mit gemischten Eigenschaften
Verschiedenartige Funktionen
Mit unterschiedlichen Eigenschaften
Mit inversen Eigenschaften
Teilweise koaguliertes System Teilweise Kontraktion
Vollständig koaguliertes neues Vollständige Kontraktion System (Mono-System)
Abb. 15.10. Meta-Modell „Mono – Bi / Poly - Mono“ für die Expansion-Kontraktion technischer Systeme
Mitte der 1950er Jahre bildete sich am Moskauer Luftfahrtinstitut (MAI) ein Team von Enthusiasten unter Leitung S. Belozerkowski, die eine Theorie und praktische Konstruktionen für Mehrfachdecker entwickelten. Die Wiedergeburt des Vergessenen führte in den letzten Jahren zur Entdeckung hervorragender Eigenschaften von Mehrfachdeckern und zum Entstehen einer wirklich neuen Entwicklungsrichtung für Flugzeuge der Zukunft. Bei gleicher Aufstiegskraft ist das Gewicht eines Mehrfachdeckers 4-6 Mal geringer als das Gewicht eines Flügels mit kompaktem Querschnitt und 2-3 Mal geringer als ein Flügel hohlen Querschnitts. Durch Dynamisierung des Abstands zwischen den Decks wurde praktisch erreicht, dass das Flugzeug bei allen Geschwindigkeiten eine stabile Lage hat, beginnend bei den geringsten bis hin zum Ultraschall! Die Montage von Mehrfachdeckern ist bedeutend einfacher als die von Eindeckern.
240
Strategie des Erfindens
EFFEKTIVITÄT =
Aerodynamische Eigenschaft + Manövrierbarkeit + Geschwindigkeit Gewicht + Kompaktheit + Kompliziertheit der Herstellung Mehrfachdecker für den das Raummodul „Sojus“ für Manöver bei Notlandung
Mehrfachdecker mit inversen Funktionen – Stabilisation und Bremsen
Mehrfach –
Mehrfachdecker ! Vor Beginn des Bremsens eingeklappte Flügel
Kontraktion – Eindecker
Mehrfachdecker mit verschiedenartigen Trag- und Stabilisationsflächen
Dynamisierung des Mehrfachdeckers auf Unterschall- , Überschallund Hyperschallgeschwindigkeit
Teilweise Kontraktion
Mehrfachdecker mit beweglichen Parametern – trapezförmigen Flügel und wabenförmige Tragflächen
Mehrfachdecker mit gleichartigen Tragflächen in einer Strebe
Aero-kosmisches „Raketenflugzeug“ als Integration von Rumpf, Flügel und Antriebsanlage (Kontraktion)
Ein –
Flugzeug mit kompliziertem „Flügel-Eindecker“: - Vorflügel plus Schlitz – heterogenes Bi-System; - Hinterflügel plus Schlitz– heterogenes Polysystem; - Interzeptoren („Antiflügel“ auf den Flügeln) – inverses Bi-System Teilweise Kontraktion: alle Subsysteme wurden in einen Mono-Flügel eingebaut
Flügelrakete als System mit inverser Komponente – vorderer Stabilisator
Doppel –
Doppeldecker mit verschiebbaren Parametern der unteren und oberen Tragfläche
Doppeldecker mit gleichen Tragflächen
Modelle von Doppeldeckern S.Langley (1903 – zwei Flügel auf der Horizontalen) und Gebrüder Wilbur und Orvolle Wright (1903 – zwei Flügel auf der Vertikalen) Modelle eines 3-Deckers G.Caylay (1849), 4-Deckers W. Saweljew (1916), 5-Deckers ȿ.Fedorow (1895) und 40-Decker des englischen Ingenieurs G.Phillips (1883) Modelle von Eindeckern von Felix deTempl (1857), Alexander Moszhajski (1884) und Otto Lilienthal (1891)
1920
1960
Abb. 15.11. Beispiele „Poly-Bi-Mono“ und „Mono-Poly“ für Flugzeugflügel
2000
15 Klassische TRIZ- Modelle der innovativen Entwicklung
241
An diesem Beispiel können Sie sehen, wie mit der Zeit umgegangen werden kann, wie man sich zurück in die Vergangenheit wendet, oder besser gesagt, wie man sich an die Zukunft erinnert. Eine ähnliche Erscheinung erwähnte einst der bekannte Forscher und Entdecker von Däniken72 ! Praktisch können wir schlussfolgern, dass die Verfahren, die in diesem MetaModell akkumuliert wurden, zeigen, dass die Übergänge nicht unbedingt streng entlang der Linien „Mono – Bi / Poly - Mono“, sondern auch entlang der Linien „Bi / Poly – Mono – Bi Poly“ oder „Mono – Bi / Poly“ erfolgen. Wir sehen hier auch wieder die für fast alle TRIZ-Verfahren charakteristische Möglichkeit der Verifikation oder des Zurückverfolgens der Verfahrensrichtungen. 15.2.8. Meta-Modell Linien der Ressourcenentwicklung. Die Entwicklung von Systemen in Richtung Wachstum der Idealität ist mit solchen Eigenschaften verbunden, wie Erhöhung der Stufe der Ressourcenkoordination und Anwendung gut steuerbarer Ressourcen. Die Steuerbarkeit eines Systems zeugt von seinem hohen Entwicklungsstand. Aber Steuerbarkeit ist nur dann möglich, wenn die zu steuernden SystemMagnetkomponenten dynamisierte Ressourfeld cen verwenden, deren steuerbarer ElektroParameter sich im notwendigen Bemagnetische reich verändert. Elektrisches Diese Tendenzen spiegeln sich in Feld den Entwicklungslinien der RessourElektrocen wieder. Die wichtigsten Metachemische Modelle finden Sie weiter unten. Chemische Der Übergang zu hocheffektiven Wechselwirkungen Feldern lässt sich anhand der Abb. Thermo15.12 nachvollziehen. chemische Hier sollte berücksichtigt werden, Thermische dass einige dieser „Felder“ als physiFelder kalisch-mathematische Begriffe aufThermogefasst werden müssen. mechanische Wenn wir z.B. die Gesamtheit aller Mechanische mechanischen Kräfte, die einem ObFelder jekt zugeordnet sind als eine Vielzahl von Vektoren betrachten, so bildet diese Vielzahl ein räumliches Feld Abb. 15.12. Übergangslinie leicht der Wirkung dieser Kräfte, oder ein steuerbarer Felder mechanisches Feld. Auch akustische und Gravitationsfelder werden hier zu den mechanischen gerechnet. Die Gravitation teilt allen Körpern auf der Erde ihr Gewicht mit. Dennoch haben Gravitationsfelder noch immer Eigenschaften, die noch nicht voll erforscht sind. 72
Erich von Däniken (geb. 1935, Schweiz) – bekannter Erforscher von Phänomenen antiker Zivilisationen und des Besuchs der Erde durch Außerirdische
242
Strategie des Erfindens
Bsp. 103. Zum Pfahl-Hammer. Im Verlaufe eines Jahrzehnts, in den 1970er Jahren, war eine Weiterentwicklung von Verfahren des Einschlagens von Baustellenpfählen bezogen auf die gesamte erwähnte Linie festzustellen: Fallhämmer („Gravitationsmechanismus“) – hydraulische Hämmer – elektrohydraulischer Schlag (nach dem Jutkin-Effekt) – elektromagnetischer Hammer (beschleunigt in einer Solenoidspule) – „elektromagnetische Pfähle“; koaguliertes Bisystem „Pfahl-Hammer“, bei dem die Oberflächenschicht des Pfahlkopfes mit einem Elektrolyten durchtränkt wird, so wird der Beton zu einem Leiter, und anstelle des Hammers wird der Pfahl selbst beschleunigt. Bemerkt werden sollte außerdem, dass parallel zu diesen Innovationen auch verschiedene pneumatische Hämmer mit einfachen Konstruktionen als Erfindungen anerkannt wurden. Folgende drei Linien sind mit der Dynamisierung von Systemen verbunden.
Feld
Gas
Atome, Teilchen
Zeolithe und Gels
Moleküle, Ionen
Kapillar-poröse Materialien mit Füllung
Komplexe Moleküle
Kapillar-poröse Materialien
Pulver
perforierter Stoff
Geschichtete, Faserige
Massiv mit einem Hohlraum
Massiver Körper
Massiver Körper
Abb. 15.14. Linie des Zerteilens eines Stoffs
Abb. 15.15. Linie der Einführung von Hohlräumen
Flüssigkeit
Flexibler Stoff
Bewegliches System
Fester Körper Abb. 15.13. Linie des Zerteilens eines Instruments
Beispiele für das Zerteilen eines Instruments (nach Abb. 15.13): Bsp. 104. Linie des Zerteilens eines chirurgischen Instruments: Metallskalpell – Ultraschallskalpell – Wasser unter Druck – Laserstrahl. Bsp. 105. Linie des Zerteilens des Schneideinstruments des Rasenmähers: aus einem Stück bestehende sich drehende metallische Messer – eine sich drehende Metallkette – eine sich drehende Nylonschnur – sich drehende Wasserstrahlen unter Druck.
15 Klassische TRIZ- Modelle der innovativen Entwicklung
243
Nichtlineares Feld:
Anwendung eines Feldgradienten und Anisotropie des Milieus der Ausbreitung des Felds
Veränderliches Feld
mit Anwendung physikalischer Effekte: Beugung, Interferenz, Reflexion, Fokussierung usw.
Veränderliches Feld
mit Änderung der Phasen, Frequenz, Wellenlänge, Form der Schwingungen
Impulsfeld
Permanentes Feld
Beispiele zur Illustration des Zerteilens des Stoffs (nach Abb. 15.14): Bsp. 106. Verringerung der Gleitreibung in Drehpaaren „Welle – Stütze“: unmittelbarer Kontakt mit sich drehenden metallischen Oberflächen der Welle und der Reibungsstütze – kontaktlose hydrostatische Stütze (flüssiges Schmiermittel) – kontaktlose gasstatische Stütze (das Gas wird unter Druck durch poröse Buchsen zugeführt) – magnetische Hochpräzisionsstütze. Bsp. 107. Erhöhung der Lebensdauer und Zuverlässigkeit von Gleitkontakten (Bürsten) für die Stromübertragung auf Elektromotoren und von Elektrogeneratoren: Kohlebürsten – Bürsten aus gehärteten Kohlefasern – ferromagnetisches Pulver mit einem permanenten Magnetfeld – magnetische Flüssigkeit – ionisiertes Gas – Entladung im Vakuum. Beispiele zur Illustration der Einführung von Hohlräumen (nach Abb. 15.15): Bsp. 108. Verwendung poröser Materialien in Gleitlagern (s. Bsp. 106 oben und Bsp. 31.1 im A-Navigator ʋ 31). Bsp. 109. Autoreifen: kompakt – mit einer Höhle für Luft (mit oder ohne Kammern) – Reifen mit Zwischenwänden (Mehrkammerreifen) – Reifen aus porösem Material – Reifen aus kapillar-porösem Material mit Kühlern – Reifen die mit porösem polymeren Teilchen und gelartigen Stoffen gefüllt sind. Als Abschluss dieses Abschnitts wollen wir noch ein etwas komplizierteres Meta-Modell für den Anstieg der Steuerbarkeit von Feldern erwähnen (Abb. 15.16). Ohne zu übertreiben kann man sagen, dass der Fortschritt der modernen Funktechnik, der elektronischen Optik, Computertechnik, Computertomographie, Lasertechnik und Mikroelektronik vollständig auf dieser Entwicklungslinie basiert.
Abb. 15.16. Zunahme der Steuerbarkeit von Feldern
15.3 Integration alternativer Systeme In der TRIZ bezeichnet man solche Systeme als konkurrierende Systeme, die ein und denselben Zweck erfüllen, die gleiche nützliche Hauptfunktion haben, jedoch unterschiedlich umgesetzt wurden, und demzufolge unterschiedlich effektiv sind.
Strategie des Erfindens
244
So sind nach dieser Definition übliche Eisenbahnen und Magnetschwebebahnen konkurrierende Systeme. Im Prinzip kann man die Konkurrenz von Systemen auch in einem weiteren oder auch engeren Kontext verstehen. Im weiteren Sinne kann man konkurrierende Systeme verschiedener Klassen (nichtgleichartige Systeme) betrachten, wie z.B. Straßen- und Schienenverkehr. Im engeren Sinne kann man die Konkurrenz einander naher Systeme (vom selben Typ) betrachten, wie z.B. verschiedene Automarken mit ähnlichen Charakteristika. Für die Integration werden auf jeden Fall so genannte alternative Systeme ausgewählt, welche direkte, entgegengesetzte Paare positiver und negativer Eigenschaften haben. Bsp. 110. Das Rad eines Fahrrads (Anfang). Das Speichenrad eines Fahrrads (Abb. 15.17.a) hat ein geringes Gewicht und eine hohe Festigkeit, ist jedoch schwer zu montieren. Ein kompaktes metallisches Scheibenrad (Abb. 15.17.b) ist leicht zu montieren, hat jedoch entweder ein größeres Gewicht oder eine geringere Festigkeit.
a)
b)
Abb. 15.17. Alternative Systeme: Speichen- (a) und Scheibenrad (b)
Die Methode der Integration alternativer Systeme gestattet es, gerichtet neue Systeme durch Vereinigung alternativer Systeme zu konstruieren. Das erfolgt so, dass ihre positiven Eigenschaften in das neue System übergehen, während die negativen verschwinden oder wesentlich abgeschwächt werden. Dadurch wird auch eine höhere Stufe der Idealität (Effektivität) des neuen Systems erreicht. Speziell ermöglicht diese Methode eine Verlängerung des Lebens von bestehenden alternativen Systemen, von denen eines (oder beide) seine Entwicklungsgrenzen erreicht hat und erkennbare Ressourcen für einen weiteren Fortschritt ausgeschöpft sind. Die Effektivität von Systemen wird als Verhältnis von Kennziffern ausgedrückt, die zu den Gruppen negativer und positiver Faktoren gehören, d.h. zum Nenner und Zähler der entsprechenden Formel (s. Abschn. 14.2): 1. Zähler: Geschwindigkeit, Tragfähigkeit, Genauigkeit usw.; 2. Nenner: Energieverbrauch, Brennstoffverbrauch, Ausgaben für die Bedienung, Kompliziertheit der Herstellung, ökologische Schäden und deren Kompensation usw. Dabei müssen die vereinigten Systeme alternative Paare von Eigenschaften haben, z.B., das eine System ist hochproduktiv, jedoch teuer und kompliziert, das andere System ist geringer produktiv, dafür aber einfach und nicht teuer. Ein wichtiger Punkt bei der Vereinigung ist, dass eine Kontraktion der Mängel der alternativen Systeme aus den Grenzen des Systems erfolgt. Dabei soll es zu einer
15 Klassische TRIZ- Modelle der innovativen Entwicklung
245
Expansion (möglichst mit Verstärkung) der nützlichen Funktion, für die eine Integration erfolgt, kommen. Betrachten wir einige Beispiele für die Integration gleichartiger alternativer Systeme. Bsp. 110. Das Rad eines Fahrrads (Ende). Die Vorzüge des Speichenrads werden durch die Spannung der Konstruktion gewährleistet. Und genau diese Eigenschaft muss auf das Scheibenrad übertragen werden. Zu diesem Zweck wird das Rad aus zwei dünnen Diaphragmen 2 hergestellt (Abb. 15.18.a), die unter den Felgen installiert werden und sich hinunter bis zu der Achsennabe 1 so erstrecken, dass eine Spannung der Konstruktion entsteht. Ein solches Rad (Abb. 15.18.b), ist bedeutend einfacher in der Herstellung und Steuerung und bei gleicher Festigkeit leichter als ein Speichenrad! Eine weitere Möglichkeit für die Verringerung des Gewichts besteht darin, dass Ausschnitte oder Öffnungen in das Diaphragma eingebracht werden (Abb. 15.18.c). Der Herstellungsprozess der Diaphragmen wird dadurch nicht schwieriger, weil die Öffnungen leicht mit einem Schlag ausgestanzt werden können. Die Stanze ist natürlich komplizierter, was sich aber praktisch nicht auf die Produktionskosten bei ausreichend großen Stückzahlen auswirkt.
2
a)
2 1
b)
c)
Abb. 15.18. Scheiben-Diaphragma-Rad: Aufbau (a), übliche (b) und vereinfachte (c) Variante
Bsp. 111. Gleitlager. Gleitlager sind einfach herzustellen, halten starke radiale Belastungen aus und arbeiten leise. Gleichzeitig haben sie aber einen großen Mangel – sie benötigen viel Kraft beim Start, da im statischen Zustand der Schmierstoff zwischen Welle und Stütze herausgedrückt wird, und deshalb beim Start fast eine Trockenreibung stattfindet. Schwinglager sind ein alternatives System, da sie einen geringen Startmoment haben. Jedoch sind sie, weitaus komplizierter herzustellen, sind teuer, halten radiale Belastungen nur schlecht aus und sind sehr laut. Als Basissystem wird in der Regel das einfachere und billigere System ausgewählt, in diesem Fall das Gleitlager. Wie kann man erreichen, dass hierbei der Startmoment fast so wie beim Schwinglager ist? Es müssen beide Systeme vereinigt werden. Vielleicht folgendermaßen: dem Schmierstoff Mikrokügelchen zusetzen! Dabei benötigt man ein weitaus geringeres Startmoment, und bei normaler Funktion wird der Ablauf des Gleitens gewährleistet.
246
Strategie des Erfindens
Als Beispiel für die Integration nicht gleichartiger Systeme betrachten wir die Idee des Saiten-Transportsystems (STS) von A. Yunitzki73. Bsp. 112. Saiten-Transportsystems von A. Yunitzki. Mit welchem Verkehrsmittel bricht die Menschheit in das neue Jahrtausend auf? Wird die Menschheit langsam stagnieren, in einem Zustand der psychologischen Hemmung verharren – ohne alternative Generationen zu Automobilen und Flugzeugen? Wird die Bahn auch weiterhin Ressourcen verschlingen, für den Erhalt ihrer moralisch veralteten Technostruktur? Wird sich letztendlich das Verständnis dafür durchsetzen, dass unser Planet heute nicht mehr sicherer als die „Titanic“ ist, deren Sicherheit auch überschätzt wurde, und auf der es dann viel zuwenig Rettungsboote gab?! Das Auto: 1. Entstand Ende des XIX. Jahrhunderts. Im vergangenen Jahrhundert wurden mehr als 10 Mio. km Straßen gebaut, ca. 1 Mrd. Autos wurden produziert. Ein Mittelklassewagen kostet 15-20 Tausend $. 2. Eine moderne Autobahn kostet 5-10 Mio. $/km, entzieht der Bodennutzung ca. 5 ha/km und der Infrastruktur bis zu 10 ha/km. Der Umfang von Erdarbeiten übersteigt 50 Tausend m³/km. Autostraßen und ihre Infrastruktur nahmen der Menschheit ca. 50 Mio. Hektar Boden weg. Und das war bei weitem nicht der schlechteste Boden. Das entspricht etwa dem Territorium von Deutschland und Großbritannien. Reserven für den Bau weiterer Autostraßen gibt es in Deutschland praktisch nicht. 3. Der jährliche Schaden, der durch Stillstandszeiten im Straßenverkehr, durch Staus entsteht, beläuft sich in Deutschland auf mehrere Mrd. Dollar. In den letzten Jahrzehnten wurde das Auto Todesursache Nummer 1 für den Menschen. Angaben der WHO zufolge sterben auf Autostraßen durch Unfälle (einschl. Folgeverletzungen) in der ganzen Welt jährlich mehr als 900 Tausend Menschen, viele Millionen behalten schwerwiegende Behinderungen zurück und mehr als 10 Mio. Menschen werden verletzt. 4. Die mittlere Geschwindigkeit beträgt auf Straßen 60-80 km/h; mindestens 90% seines Lebenszyklus steht das Auto; die mittlere Länge zurückgelegter Strecken beträgt 10-20 km; mehr als 400 km pro Tag zu fahren ist sehr ermüdend und gefährlich sogar auf einer Autobahn in Deutschland. 5. Das Auto wurde zur Hauptquelle für Lärm und Luftverschmutzungen in den Städten. Autoabgase enthalten ca. 20 krebserregende Stoffe und mehr als 120 toxische Verbindungen. Der gesamte Energieverbrauch von Automobilen übersteigt die Kapazität aller Kraftwerke der Welt! 6. Systeme, die den Straßenverkehr versorgen, wie Erdölbohrlöcher und Erdölleitungen, erdölverarbeitende und Asphalt herstellende Betriebe usw., haben einen starken negativen Einfluss auf die Natur. Eisenbahnverkehr: 1. Eisenbahnverkehr, so wie wir ihn uns heute vorstellen, entstand zu Beginn des XIX. Jahrhunderts, wenn auch die ersten Wege mit Spurrinnen bereits im alten 73
Die Materialien wurden von A. Yunitzki zur Verfügung gestellt
15 Klassische TRIZ- Modelle der innovativen Entwicklung
247
Rom existierten. In der ganzen Welt wurden mehr als eine Million Kilometer Eisenbahnschienen verlegt. 2. Unter heutigen Bedingungen kostet ein Kilometer zweispuriger Bahnstrecke mit entsprechender Infrastruktur 3-5 Mio. $, ein Passagierwagen ca. 1 Mio. $, eine E-Lok ca. 10 Mio. $. Beim Bau werden viele Ressourcen verbraucht: Metall (Stahl, Kupfer), Stahlbeton, Schotter. Der Umfang der Erdarbeiten beträgt im Durchschnitt ca. 50 Tausend. m³/km. Das entzieht der Bodennutzung ca. 5 ha/km, und der Infrastruktur bis zu 10 ha/km. 3. Bei komplizierten geographischen Bedingungen müssen spezielle Bauwerke wie Brücken, Viadukte, Überführungen, Tunnel errichtet werden, was das System deutlich verteuert und den negativen Einfluss auf die Natur erhöht. Die Durchschnittsgeschwindigkeit beträgt 100-120 km/h. 4. Lärm, Vibrationen, thermische und elektromagnetische Strahlungen, ausgehend von Zügen, beeinflussen den Lebensraum von Tieren und Menschen, die entlang der Bahnstrecken leben. Passagierzüge verursachen pro Jahr je km Bahnstrecke bis zu 12 Tonnen Müll und 250 kg Fäkalien. 5. Magnetschwebebahnen können die Situation insgesamt nicht grundlegend verändern (zumindest in Europa). Außerdem verursacht der Bau solcher Strecken oder das Abtragen und die Rekonstruktion bestehender Abschnitte gewaltige Kosten, die sich kein europäisches Land leisten kann. Luftfahrt: 1. Das ökologisch gefährlichste und energieaufwendigste Verkehrsmittel ist die Luftfahrt. Der Gesamtausstoß von Schadstoffen in die Atmosphäre beträgt bis zu 30-40 kg/100 Passagier-Kilometer. Die Hauptmenge der von Flugzeugen ausgestoßenen Schadstoffe konzentriert sich auf die Gegenden der Flughäfen, d.h. in der Nähe von Großstädten, während des Überfliegens in geringer Höhe und bei der Beschleunigung der Motoren. In geringen und mittleren Höhen (bis 5000-6000 m) halten sich Verschmutzungen der Atmosphäre durch Stick- und Kohlenoxide mehrere Tage. Danach werden sie durch Feuchtigkeit in Form von saurem Regen ausgespült. In größeren Höhen ist die Luftfahrt die einzige Quelle für Verschmutzungen. Die Verweildauer von Schadstoffen in der Stratosphäre ist bedeutend länger – sie beträgt ca. ein Jahr. Ein modernes Düsenflugzeug entspricht, was die Toxizität betrifft, 5-8 Tausend PKWs und benötigt eine Sauerstoffmenge für die Verbrennung von Kerosin, die mehr als 200000 Menschen beim Atmen verbrauchen. Um solche Sauerstoffmengen in der Atmosphäre zu reproduzieren, werden mehrere Tausend Hektar Nadelwald oder eine noch größere Fläche von Plankton im Ozean benötigt. 2. Jeder Passagier wird während eines mehrstündigen Flugs aufgrund der natürlichen kosmischen Gammastrahlung einer Strahlendosis ausgesetzt, die mehrere Tausend Mikroröntgen beträgt (die Strahlendosis im Innenraum eines Flugzeugs beträgt 300-400 ȝR/h bei einem zulässigen Grenzwert von 20 ȝR /h). 3. Für den Bau von Flughäfen muss Boden abgetragen werden, dessen Flächen mit denen beim Bau von Bahnschienen und Autostraßen vergleichbar sind. Sie befinden sich jedoch in unmittelbarer Nähe von Ortschaften und haben deshalb einen bedeutend höheren Wert.
248
Strategie des Erfindens
4. Die Luftfahrt ist einer der größten Lärmverursacher, besonders in der Umgebung von Flughäfen. Außerdem ruft sie durch Radiolokation in Radarstationen große elektromagnetische Emissionen hervor. 5. Der Luftverkehr ist das teuerste Verkehrsmittel. Die Kosten für moderne Airbusse betragen heute ca. 100 Mio. $, die Ausgaben für einen internationalen Großflughafen übersteigen 10 Mrd. $. Diese kurze Analyse stellt außer Zweifel, es muss nach neuen Möglichkeiten einer grundlegenden Veränderung im Verkehrswesen gesucht werden. Eine dieser Möglichkeiten ist die Erfindung eines Ingenieurs aus Weißrussland, Anatoli Yunitzki. Erstmals veröffentlichte er diese Idee 1982 in der ehemaligen UdSSR, und er fand dort natürlich keine Unterstützung von offizieller Seite. Yunitzki stand bereits vor diesem Ereignis auf der Liste „unsicherer Kandidaten“, die vom KGB unter Beobachtung gestellt wurden. Bereits Ende der 1970er Jahre versuchte man Yunitzki für seine Idee einer geokosmischen Industrialisierung zu diskreditieren (s. Abschn. 18.2), die im scharfen Widerspruch zur „triumphalen Politik“ der Erschließung des erdnahen Weltraums mit Raketen bestand. Lassen Sie uns jetzt das Re-Inventing der Erfindung von A. Yunitzki auf der Basis der Methode der Integration alternativer Systeme durchführen. Das alternative System 1 hat eine hohe Geschwindigkeit, ist aber schwer manövrierbar (Eisenbahn), das System 2 hat keine so hohe Geschwindigkeit, lässt sich aber besser manövrieren (Auto). Beim Verkehr zwischen zwei Städten muss auch die Sicherheit und eine ausreichend hohe Geschwindigkeit berücksichtigt werden. Deshalb nehmen wir als Grundlage hier die Eisenbahn. Andererseits ist das Auto sicherer, was ein einmaliges Abweichen von der Wegstruktur betrifft, da es weniger Passagiere transportiert. Die wesentlichen technischen Vorteile des Autos bestehen darin, dass es aus mehreren Modulen besteht und im Vergleich zur Bahn bedeutend kleinere Ausmaße hat. Diese Betrachtungen führen zur ersten Aussage: der Verkehr muss mit hohen Geschwindigkeiten erfolgen, auf der Basis von Modulen mit einer geringen Anzahl von Passagieren. Daneben bestehen natürlich auch noch die Probleme der Bodennutzung und der Baukosten für neue Trassen. Hohe Geschwindigkeiten erfordern äußerst ebene und geradlinige Streckenstrukturen. Dieser Forderung entsprechen am ehesten Bahnschienen. Wegen des großen Gewichts von Eisenbahnen müssen die Strecken auf starken Fundamenten gebaut werden, die nicht gerade umweltverträglich und ziemlich kostenaufwendig sind. Die Forderung nach einer Modulkonzeption des Verkehrs führt zu einer zweiten Aussage: Streckenstrukturen in der Art von Gleisen können recht leichte Konstruktionen sein, die sich über der Erde befinden und sich dadurch auszeichnen, dass sie sehr eben und geradlinig sind, und relativ gesehen, nicht vom Relief des Baugeländes abhängen. Ein Modulverkehr muss, ohne Alternative, einen elektrischen Antrieb haben. (s. Praktikum 14-15). Daraus ergibt sich die dritte Aussage: wenn das Auto auch in Zukunft seinen Platz haben möchte, so muss es zu einem Elektromobil werden und in eine neue Streckenstruktur integriert werden können.
15 Klassische TRIZ- Modelle der innovativen Entwicklung
249
Die Idee des STS besteht in folgendem: Die Grundlage des STS bilden zwei spezielle, Strom führende Gleis-Saiten (voneinander isoliert und mit einer Stütze) entlang derer sich in einer Höhe von 10-20 m (oder, wenn nötig auch höher) ein vierrädriger Hochgeschwindigkeitsmodul bewegt – ein Elektromobil. Dank der hohen Ebenheit und Festigkeit der Streckenstruktur der Saiten können mit dem STS Geschwindigkeiten bis zu 250-350 km/h (perspektivisch bis zu 500-600 km/h und sogar bis 1000 km/h in einer Vakuumröhre) erreicht werden. Die Saitenelemente sind mit einer Kraft bis zu 300-500 Tonnen gespannt und sind stabil in Ankerstützen befestigt, mit einem Abstand von 1-3 Kilometern. In Abständen von 20-100 m befinden sich Stützelemente. Die Elektromodule haben eine Tragfähigkeit bis zu 5000 kg und können bis zu 20 Passagiere aufnehmen (Abb. 15.19 und 15.20). Die Stromversorgung wird über die Räder gewährleistet, die Kontakt zur Strom führenden Oberfläche der speziellen Gleise haben. Bei Verwendung atomarer Energiequellen, wären die Gleisoberflächen und demzufolge das gesamte Modul stromlos. Die Trassen des STS lassen sich leicht mit Stromversorgungslinien zu Wind- und Sonnenkraftwerken, über spezielle Leitungen, darunter auch optische Faserleitungen, koordinieren.
Abb. 15.19. Bahnhof eines Saitentransportsystems
250
Strategie des Erfindens
Abb. 15.20. Das STS verläuft über der Autobahn
Die Saiten des STS werden aus hochfesten Stahldrähten gefertigt, die je einen Durchmesser von 1-5 mm haben. Die Saiten werden gebündelt und mit der kleinstmöglichen Krümmung in den Hohlraum der Gleise installiert (Abb. 15.21). Die Gleise werden so montiert, dass die Gleisoberfläche nach der Fixierung der Saiten in den Hohlräumen der Gleise durch Füllung mit aushärtenden Stoffen wie Zement oder Epoxidharzen ideal eben bleibt. So wird erreicht, dass die Gleisoberfläche, auf der sich die Räder bewegen, auf ihrer gesamten Länge nicht durchhängt und keine Stoßfugen hat. Am häufigsten treten beim STS Zwischenstützen in einem Abstand von 25-100 m auf. Das STS ist so projektiert, dass die Zwischenstützen nur vertikal belastet werden. Die Belastung ist dabei geringfügig – 25 Tonnen bei einer Spannweite von 50 m. Einer ähnlichen Belastung sind die Stützmasten von Starkstromleitungen ausgesetzt, deshalb Saiten aus Drähten sind sie vom Materialaufwand her dem STS sehr ähnlich. Die maximale horizontale Belastung wirkt entlang der gesamten Trasse nur auf die zwei Ankerstützen an den Enden der Abb. 15.21. Aufbau Strecke (hier wirkt eine einseitige Belastung): 1000 Tonnen der Saiten-Gleise bei einer Zweistreckentrasse und 500 Tonnen bei einer Einstreckentrasse.
15 Klassische TRIZ- Modelle der innovativen Entwicklung
251
Das STS hat eine äußerst feste Streckenstruktur. Bei einer Spannweite von 50 m beträgt die statische Durchbiegung der Strecke durch eine konzentrierte Belastung von 5000 kg/s, in der Mitte zwischen zwei Stützpfeilern, nur maximal 12,5 mm oder 1/4000 des Abstands zwischen zwei Stützpfeilern. Zum Vergleich: Brücken, darunter auch Brücken für Hochgeschwindigkeitszüge, werden heute so projektiert, dass eine 10fach höhere Durchbiegung zulässig ist – 1/400 im Verhältnis zu Länge der Brücke. Die dynamische Durchbiegung der Strecke des STS unter Einwirkung beweglicher Last ist noch geringer – bis zu 5 mm, oder 1/10000 des Abstands zwischen zwei Stützpfeilern. Eine solche Strecke für die Räder des Transportmoduls ist ebener als der Boden eines Salzsees, auf dem bekanntermaßen, Ende des XX. Jahrhunderts ein Auto erstmals Überschallgeschwindigkeit erreichte – 1200 km/h. Die Höchstgeschwindigkeit des STS wird nicht durch Ebenheit oder die Dynamik der Schwingungen auf der Strecke beeinflusst, es gibt keine Probleme beim Friktionskontakt „Rad – Gleis“, eine Rolle spielt nur die Aerodynamik. Deshalb wurde den Fragen der Aerodynamik beim STS besondere Aufmerksamkeit gewidmet. Man kam hierbei zu einzigartigen Ergebnissen, die keine Analogien im modernen Hochgeschwindigkeitsverkehr haben, auch nicht im Flugverkehr. Der Koeffizient des aerodynamischen Widerstands des Modells eines Passagierwagens wurde im Windkanal überprüft und betrug ɋɯ = 0,075. Es sind Maßnahmen geplant, diesen Koeffizient auf ɋɯ = 0,05-0,06 zu senken. Dank des geringen Luftwiderstands kann ein Antrieb mit einer Leistung von z.B. 80 kW bei einem Passagierwagen mit 20 Plätzen eine Geschwindigkeit von 300-350 km/h erreichen, bei 200 kW – 400-450 km/h, und bei 400 kW – 500-550 km/h. Dabei sind mechanische und elektromechanische Verluste beim STS äußerst gering, da der Wirkungsgrad von Stahlrädern 99% und vom Komplex Rad – Motor insgesamt 92 % beträgt. Die Zuverlässigkeit der Streckenstruktur und der Stützen des STS sowie der baulichen Konstruktion befindet sich auf dem Niveau der Zuverlässigkeit von Hänge- oder Wantbrücken, da sie von der Konstruktion her einander sehr ähnlich sind. Dabei sind die Saiten des STS jedoch weitaus besser vor klimatischen und mechanischen Einwirkungen geschützt, als die Seile von Brücken. Ökonomisch gesehen schätzt man, dass bei einer Serienproduktion die Kosten einer Zweistreckentrasse des STS mit Infrastruktur (Bahnhöfe, Stationen, Lastenterminals, Depots usw.) auf ebener Fläche in Mio. $/km 1,0-1,5, in den Bergen und bei Trassen über Wasser 1,5-2,5, sowie 5-8 unter Wasser oder unter der Erde mit speziellen Tunneln betragen. Ein Transportmodul ist konstruktionstechnisch gesehen einfacher als ein Auto, bei Serienproduktion lägen die Kosten bei 20...40 Tausend $, oder umgerechnet auf einen Sitzplatz – 1-2 Tausend $ (bei einem Modul mit 20 Sitzplätzen). Zum Vergleich die Kosten anderer Hochgeschwindigkeitsverkehrssysteme: Flugzeug 100-200 Tausend $/Sitzplatz, Magnetschwebebahn – 100-200 Tausend $/Sitzplatz, Hochgeschwindigkeitszüge – 20-30 Tausend $/Sitzplatz. Wollen wir jetzt die doch äußerst interessanten technisch-ökonomischen und ökologischen Charakteristika dieses Verkehrsmittels zusammenfassen: Für das Verlegen der Saitentrasse ist es nicht notwendig viel Land zu bebauen (150-200-
252
Strategie des Erfindens
Mal weniger, als für Straßen- oder Gleisbau). Es ist nicht notwendig, Aufschüttungen oder Gruben zu errichten, es müssen keine Wälder abgeholzt und keine Gebäude abgetragen werden. Aus diesem Grund lässt sich das STS leicht in die Infrastruktur von Städten integrieren und auch in Gegenden mit ungünstigen Naturbedingungen ohne weiteres einsetzen: in Dauerfrostzonen, in Gebirgen, in Sumpflandschaften, in der Wüste, in Bereichen mit Wasserhindernissen (Flüsse, Seen, Meerengen, Ozeanschelf u.a.). 1. Es erhöht sich die Stabilität des Systems bei Naturkatastrophen wie Erdbeben, Erdrutschen, Überschwemmungen, Stürmen und bei ungünstigen klimatischen Bedingungen wie Nebel, Regen, Glatteis, Schneeverwehungen, Sandstürme, große Hitze und Kälte usw. 2. Das STS ist im Vergleich zu allen anderen bekannten Hochgeschwindigkeitsverkehrsmitteln ökologisch verträglicher, ökonomischer, technologischer und sicherer. 3. Dank des geringen Materialaufwands und der gelungenen Technologie der Trasse ist das STS billiger als gewöhnliche (2-3-Mal) und Hochgeschwindigkeitsbahn (8-10-Mal) und Autobahnen (3-4-Mal), als eingleisige Strecken (2-3Mal), als Magnetschwebebahnen (15-20-Mal). Und deshalb werden Fahrten mit dem STS äußerst preiswert sein, nur 5-8 $ pro 1000 Passagierkilometer und 2-5 $ pro 1000 Tonnenkilometer Last. 4. Das STS kann als technologische oder spezialisierte Trasse gebaut werden für Lasten, Passagiere und gemischte Transportlinien. Es können Magistralen mit niedriger Geschwindigkeit (bis zu 150 km/h), mittlerer Geschwindigkeit (150-300 km/h) und mit Hoher Geschwindigkeit (mehr als 300 km/h) errichtet werden. An einem Tag können so bis zu 500 000 Passagiere und bis zu 1 Mio. Tonnen Lasten transportiert werden. Die Beförderungskapazität übertrifft die einer modernen Erdölleitung, wobei die Trasse des STS billiger ist. Die Selbstkosten für den Erdöltransport im STS wären 1,5-2-Mal niedriger als in einer Rohrleitung. Mit dem STS könnte die Müllabfuhr aus Großstädten durchgeführt werden, es könnten Erze von den Abbauorten in verarbeitende Werke, Kohle zu Wärmekraftwerken und Erdöl von den Lagerstätten in erdölverarbeitende Betriebe transportiert werden; Hunderte Millionen von Tonnen hochreinen Trinkwassers könnten in dünn besiedelte Regionen der Welt über Entfernungen von 5-10 Tausend Kilometern gebracht werden usw. 5. Die Gesamtausgaben für eine Trasse des STS „Paris (London) – Moskau“ würde 5,7 Mrd. $ ausmachen (die Länge der Trasse beträgt 3110 km). Davon werden 5,2 Mrd. $ für die Trasse und Infrastruktur verbraucht und 0,5 Mrd. $ – für die beweglichen Elemente. In 5-7 Jahren hätte sich so eine Trasse amortisiert. Die Selbstkosten für eine Fahrt von Moskau nach Paris würde 32 $ pro Passagier betragen. Die Fahrtzeit betrüge 7 Stunden und 10 Minuten (bei einer Entfernung von 2770 km und einer Durchschnittsgeschwindigkeit von 400 km/h). In Zehn Jahren würde diese Magistrale einen Reinerlös von ca. 2 Mrd. $ pro Jahr erwirtschaften. Es sind viele Varianten der Verlegung von Saitentrassen denkbar, die strategisch und geopolitisch praktisch für jedes Land der Erde wichtig sein könnten (Abb. 15.22-15.23).
15 Klassische TRIZ- Modelle der innovativen Entwicklung
Abb. 15.22. STS in den Bergen
Abb. 15.23. STS in der Stadt
253
254
Strategie des Erfindens
Im STS wurden folgende TRIZ-Prinzipien realisiert (Abb. 15.24). Die Anwendung des STS ermöglicht: eine grundlegende Verringerung der Anzahl von Fluglinien mit einer Strecke von bis zu 2000 km, dabei würden Flugzeuge nur noch bei Flügen über die Weltmeere mit einer Strecke von mehr als 2000 km eine Rolle spielen; die Belastung der Autostraßen könnte grundlegend verringert und das Problem der Staus auf den Autobahnen beseitigt werden; das Eisenbahnnetz könnte von Grund auf rekonstruiert (verkürzt) werden, dabei würde es nur auf den Hauptstrecken für Schwertransporte erhalten bleiben. Wir widmen hier der Entwicklung von Verkehrssystemen besondere Aufmerksamkeit, weil der Verkehr eines der grundlegenden anstehenden Probleme ist, das schnell und entschlossen gelöst werden muss. Nr.
Navigator
Anwendung
02
Vorherige Wirkung
Die Bahnhöfe des STS befinden sich direkt im Stadtzentrum im Unterschied z.B. zu Flughäfen
03
Zerteilen
Anstelle schwerer Züge mit hohem Energieverbrauch – kleine Hochgeschwindigkeitsmodule
04
Ersatz der mechanischen Materie
Verbesserung der mechanischen Struktur – größere Ebenheit der Strecke
05
Ausgliedern
Die ganze Strecke wurde ausgegliedert: nach oben über die Häuser und dem Boden! Oder nach unten unter die Erde oder das Wasser!
06
Nutzung mechanischer Schwingungen
Die Frequenz der Eigenschwingungen der Saiten wird auf Extremwerte erhöht, damit die Zeit des Abklingens der Schwingungen verringert wird
08
Periodische Wirkung
Zwischen den Passagiermodulen bewegen sich Lastmodule
11
Entgegengesetzt
Keine schweren Züge, keine aufgeschütteten Strecken, sondern schnelle Module auf leichten Gleissaiten.
12
Lokale Eigenschaft
Das Saitengleis ist ideal eben; die Strecke kann gerade zwischen miteinander verbundenen Punkten in optimaler Höhe verlaufen
19
Übergang in eine andere Dimension
Die Trasse wurde nach oben verlegt entlang der Höhenkoordinate
Abb. 15.24. Anwendung einiger TRIZ-Navigatoren bei der Erfindung des STS
Verkehr und Kommunikation als Austausch (Transport) von materiellen und menschlichen Ressourcen ist eine unverzichtbare Bedingung für das persönliche und gesellschaftliche Wohl; es ist ein Mittel der menschlichen Kommunikation im territorialen und intellektuellen Raum; das ist Lebensart und eine der grundlegenden kulturellen Werte, ein Kriterium für das Niveau der Zivilisation eines Landes. Der unbefriedigende Zustand des Verkehrsnetzes führt zu Störungen des normalen Funktionierens der Wirtschaft, zu Störungen in der Produktion in gemischten Zweigen der Volkswirtschaft. Führt zu großen zeitlichen und
15 Klassische TRIZ- Modelle der innovativen Entwicklung
255
materiellen Verlusten von Ressourcen, zur Verteuerung von Waren und Dienstleistungen, zum Sinken des Lebensniveaus der Bevölkerung und zu Störungen bei der Entwicklung von Bildung und Kultur. Zu Hemmnissen im Außenhandel und Tourismus, zur Verschlechterung der ökologischen Situation, zu Behinderungen bei der Beseitigung der Folgen von Naturkatastrophen und zu einer höheren Sterblichkeit der Bevölkerung. Praktikum für die Abschnitte 14 – 15 35. Auto. Wenden Sie die Meta-Modelle „Mehrfachbildschirm“ und „Mono-Bi / Poly-Mono“, die „Methode der Integration alternativer Systeme“ und „Linien der systemtechnischen Entwicklung“ an. 35.1. Kennen Sie alternative Energiequellen für Autos? Zum Beispiel das Schwungrad von Professor Gulija, Motoren mit komprimierter Luft, Wasserstoffmotoren… Setzen Sie die Liste fort. 35.2. Können Sie einen ökonomischeren Motor vorschlagen, der andere physikalisch-technische Effekte verwendet, z.B. piezo-elektrische. 35.3. Alternativen für die Entwicklung des Moduls (der Module) des SaitenTransport-Systems von A.Yunitzki: - eine Kabine für den Transport von Menschen oder Lasten; - eine Plattform für den Transport von PKWs mit Personen; ein integriertes Modul-Automobil, das selbständig auf die Gleise des STS fährt, sich entlang des STS fortbewegt und dann herunter fährt und wie ein normales Auto untergebracht werden kann; - bieten Sie eigene Lösungen an! 35.4. Wie könnte ein ideales Auto aussehen, wenn bei Verwendung des STS die Notwendigkeit entfällt, mit dem Auto Strecken von mehr als 100 km bei einer Geschwindigkeit von mehr als 50 km/h zurückzulegen? 36. Eisenbahnen und Autobahnen. Was kann sich bei diesen Transportmagistralen verändern, wenn das STS entwickelt wird? Bleiben sie nicht nur noch für den Lastentransport von Bedeutung? Verwenden Sie die MetaModelle „Mehrfach-bildschirm“ und die „Methode der Integration alternativer Systeme“. 37. Luftverkehr. Sicherheit! Umweltverträglichkeit! Wirtschaftlichkeit! Wo sind hier die Alternativen? Brauchen wir wirklich Ultraschallflugzeuge für den Flug von Moskau nach San Francisco oder von Paris nach Sydney in einer Höhe von 30 km mit einer Geschwindigkeit von 10000 – 12000 km/h in 2 Stunden? Oder passen „Zeppeline“ besser in die Zukunft? 38. Stadtverkehr. Was ist besser, Wagen für 100–200 Menschen oder individuelle Verkehrsmittel? Sich selbst bewegende Fußgängerwege oder individuelle leichte Flugapparate? Wege in der Stadt: unter der Erde, auf der Erde, in Höhe von 10-20 Metern, über den Häusern in Höhe von 20-100 Metern? Berücksichtigen Sie dabei auch die Möglichkeit, dass alte und neue Systeme parallel existieren können.
256
Strategie des Erfindens
39. Transport von Erdöl. Katastrophen mit Öltankern, Katastrophen mit Ölleitungen. Es ist bekannt, dass es Tanker für den Transport von Lasten gibt, die aus Modulen bestehen. Ist das die Lösung des Problems der Sicherheit und Umweltverträglichkeit? Ist die Idee des STS die ideale Lösung, um vollständig auf oberirdische Ölleitungen verzichten zu können? Kann man die Idee der Modul-Tanker zusammen mit den Modulen des STS betrachten? 40. Wasser. Woher kann man uneingeschränkt viel sauberes und qualitativ hochwertiges Wasser erhalten? 41. Wälder. Das voranschreiten der Computertechnik verringerte nicht, sondern erhöhte sogar den Verbrauch an Papier und förderte die Zerstörung der Wälder – der Lunge unseres Planeten. Kann man die Größe und Anzahl der verlegten Zeitungen verringern? Kann man aufhören, Bücher zu drucken? Papier nicht mehr als Verpackung zu verwenden? Oder… Erfinden Sie weiter in einem konstruktiveren Geist. 42. Elektroenergetik. Auf der Erde gibt es so viel Sonnenenergie und so viel Energie steckt in der Kernfusion! Es steckt so viel elektrische Wärme- und kinetische Energie in der Atmosphäre und in den Weltmeeren! Und noch immer reichen auf der Erde die Energieressourcen nicht aus. Und die Atmosphäre der Erde wird weiter verschmutzt und erwärmt sich durch das Verbrennen von Rohstoffen, vor allem von Erdöl, nur um Energie zu gewinnen! 43. Wohnen in der Stadt. Hohe Lärmbelastung. Staub. Verkehrsprobleme. Wenig Verbindung zur Natur. Abhängigkeit von den Nachbarn. Wie und wo kann der Mensch der Zukunft seinen Wohnraum gestalten? Gehen Sie dabei davon aus, dass man für 100 km aus dem Zentrum einer Großstadt und wieder zurück nicht mehr als eine Stunde benötigen darf. Und noch eine wichtige Forderung – leben gemeinsam im Einklang mit der Natur!
Taktik des Erfindens
Maschinen entwickeln sich ständig weiter, und deshalb wird es immer etwas zu erfinden geben. Das Wesen der TRIZ besteht darin, dass sie prinzipiell die Technologie der Produktion neuer technischer Ideen verändert. Anstelle einer Auswahl von Varianten empfiehlt die TRIZ gedankliche Aktionen, die auf der Kenntnis der Entwicklungsgesetze technischer Systeme beruhen. Genrich Altschuller
16 Diagnostik des Problems 16.1 Typen von Problemsituationen Das Herausstellen und die Lösung eines konstruktions-technologischen Problems mit starken physikalischen Widersprüchen läuft immer unter einem bestimmten strategischen Ziel ab. Das können Ziele sein, wie die Beseitigung von Defekten bei der Produktion eines Erzeugnisses, Ziele, das Produkt selbst zu modernisieren, Ziele, perspektivreiche, konkurrenzfähige Ideen zu entwickeln usw. In der Praxis steht ein Ingenieur ständig vor mehr oder weniger komplizierten Aufgaben, die schnell gelöst, aber auch gründlich unter Zukunftsaspekten durchdacht werden müssen. Deshalb muss, wenn ein Problem auftaucht, zumindest seine Wertigkeit, notwendige Fristen für die Lösung, zulässige Investitionen für die Lösungssuche und eine ganze Reihe anderer Fragen untersucht werden. Wir können davon ausgehen (Abb.16.1), dass in jedem Unternehmen bestimmte Methoden und Modelle für die Qualitätsanalyse von Produkten (und Technologien) angewendet werden, wie z.B. auf der Basis von Methoden des Total Quality Management (TQM). Außerdem gehen wir davon aus, dass Veränderungen durch bestimmte Mittel für die Automatisierung von Projektierung, Modellierung und das Prüfen von Produkten gestützt werden. Dazu gehört Computer Aided Engineering (CAE), bestimmte Methoden des Systems Innovation Design Management (IDM), ergänzt von Methoden der TRIZ-CROST – Technologie. In diesem Fall werden Verbesserungen der Produkte (der Produktion) durch permanente Innovationen auf der Basis eines bestimmten Zyklus erreicht: TQM zeigt, was verbessert werden muss und IDM zeigt, wie man das macht. Eine kurze Analyse der Problemsituation muss „taktische“ Fragen zur Bewertung des Schwierigkeitsgrads
258
Taktik des Erfindens
einer Problemsituation und die Wahl des Lösungsverfahrens einschließen. Wenn in einem Unternehmen nicht ständig Qualitätsanalysen der Produkte durchgeführt werden, so erfolgt eine Aufgabenstellung oft in ziemlich verschwommener Form und ist oft nicht ganz vollständig formuliert. Deshalb muss zumindest die Vollständigkeit der Ausgangsbeschreibung und der Charakter einer Problemsituation richtig definiert werden. In der TRIZ wurden Merkmale formuliert, anhand derer der Typ einer Problemsituation annäherungsweise definiert werden kann. Alle Problemsituationen wurden mit Hilfe der „Matrize des Quintilianus“ (Abb. 4.1) in 6 Typen unterteilt, in Abhängigkeit davon, wie genau und vollständig die Merkmale der Situation beschrieben sind (Abb. 16.2). TOTAL QUALITY MANAGEMENT (TQM) QUALITY FUNCTION DEPLOYMENT (QFD)
FAULT MODES AND EFFECTS ANALYSIS (FMEA)
Was verbessern
Wie verbessern
INNOVATION DESIGN MANAGEMENT (IDM) TRIZ / COMPUTER CROST – AIDED Technologie ENGINEERING (CAE)
Abb. 16.1. Wechselwirkung der Systeme für die Qualitätsanalyse und Steuerung der Entwicklung
Die Beschreibung der Situation des sozialen Typs (s) enthält Probleme der Ökonomie, Planung, Steuerung, Werbung, Marketing, Ausbildung usw. ohne auf das konkrete technische System einzugehen. In der Formulierung des Problems sind hauptsächlich Subjekte der Situation präsent, die Problemwidersprüche beziehen sich jedoch auf einzelne Personen oder Personengruppen. Zum Beispiel: Schlagen Sie Maßnahmen vor, um die kreative Aktivität der Mitarbeiter eines Unternehmens zu steigern. Solche Aufgaben versucht man oft mit ökonomisch-sozialen Methoden zu lösen, auch wenn die Grundlage des Problems technische Probleme bilden, die z.B. mit der technischen Ausstattung von Arbeitsplätzen verbunden sind. Bei der Situation vom Sozial-Produktions-Typ (sp) wird zusätzlich auf den Konfliktort verwiesen und es werden Probleme der Qualität der Produkte, Fragen der Ökologie und des Arbeitsschutzes usw. einbezogen. Bsp. 113. Härtung beim Eintauchen von großen Werkstücken in eine Ölwanne (Anfang). Entwickeln Sie ein Verfahren zur Luftreinigung in Arbeitsbereichen von Betrieben mit thermischer Bearbeitung. Das Hauptmerkmal ist der Konflikt zwischen Mensch und Produktionssystem. In dieser Aussage fehlt sogar ein Hinweis auf den Grund des Problems in Form eines technischen Systems. Die Beschreibung des produktionstechnologischen Typs (pt) enthält schon technische Objekte und Probleme ihres Funktionierens, die damit verbunden sind, dass technologische, Nutzungs- und physikalisch-chemische Parameter des Systems nicht den geforderten Werten entsprechen (Defekte, Havarien, hoher Energie- und Materialverbrauch, Entstehen schädlicher Faktoren).
1
Wer?
Subjekt
(pt)
+
2
Wo?
Ort
3
Was?
Objekt
+
Wissenschaftliche
Produktionstechnologische
(sp)
+
Merkmale und ihre Inhalte
Konstruktionswissenschaftliche
SozialeProduktions-
(s)
Typ der Problemsituation
259
Konstruktionstechnologische
Soziale
16 Diagnostik des Problems
(kt)
(kw)
(w)
(+)
(+)
+
+
+
+
+
+
+
+
4
Wann?
Zeit
+
+
+
5
Wie?
Methode
+
+
+
6
Womit?
Mittel
+
+
7
Warum?
Ziel / Ursache
+
Abb. 16.2. Typen von Problemsituationen
Bsp. 113 (Forts. 1). Bei der thermischen Bearbeitung wird im Bereich der Härtung beim Eintauchen von großen Werkstücken in eine Ölwanne, viel schädlicher Rauch freigesetzt. Machen Sie einen Vorschlag, wie die Atmosphäre der Werkhalle gereinigt werden kann. Der Hauptmangel bei solchen Aufgabenstellungen ist, dass oft die Folgen mit den Ursachen verwechselt werden. Hier existiert ganz deutlich nur ein administrativer Widerspruch, während für die praktische Lösung des Problems ein technischer oder physikalischer Widerspruch benötigt wird. Die Situation des konstruktionstechnischen Typs (kt) umfasst die Problemstellung der Entwicklung eines bestehenden technischen Systems. Das charakteristische Merkmal dieser Situation ist, dass eine deutliche Formulierung des technischen Widerspruchs vorhanden ist. Bsp. 113 (Forts. 2). Bei einem beschleunigten Eintauchen großer Werkstücke in die Ölwanne entsteht bei der Härtung weniger Rauch, jedoch wird der Arbeitsablauf des Härtens gestört. Es ist hier genau erwähnt, wo, was, wann abläuft, es ist aber nicht klar, wie das Problem gelöst werden kann. Natürlich kann es sein, dass diese Informationen auch nicht ausreichen, um das Problem lösen zu können. Jedoch haben wir es hier mit einer recht konstruktiven Aussage zu tun, die als Grundlage dienen kann, Versuche zu unternehmen, das Problem auf der Ebene eines technischen Widerspruchs zu lösen. Auch eine weitere Untersuchung der Bedingungen für das Entstehen des Problems ist möglich, d.h. die physikalischen Gründe des Problems können geklärt werden. Eine Situation des konstruktions-wissenschaftlichen Typs (kw) entsteht bei der Problemstellung – Synthese eines neuen Systems oder bei der Notwendigkeit physikalische Prozesse in der operativen Zone des Problems zu verstehen und zu untersuchen. Hier ist also lange noch nicht klar, mit welchen Mitteln (Ressourcen) und wie das gestellte Problem gelöst werden kann.
260
Taktik des Erfindens
Bsp. 113 (Forts. 3). In der Wanne für das Härten kommt es beim Eintauchen des Werkstücks zu einer Verbrennung des Öls; wie kann diese Erscheinung beseitigt werden? Hier haben wir es sofort mit einem physikalischen Widerspruch zu tun, z.B. in dieser Form: das Öl muss mit dem erhitzten Werkstück in Kontakt kommen (das erfordert das Härten) und das Öl soll nicht mit dem erhitzten Werkstück in Kontakt kommen (damit das Öl nicht die Temperatur seines Brennpunkts erreicht). Oder in dieser Form: das Öl darf nicht mit dem Sauerstoff der Luft in Berührung kommen (damit es nicht brennen kann) und das Öl muss mit dem Sauerstoff der Luft in Kontakt kommen, da die Ölwanne offen ist, um dort hinein das Werkstück tauchen zu können. Jetzt können für die Lösung des Problems Verfahren, Standards und wissenschaftlich technische Effekte verwendet werden. Wenn letztendlich das Problem sich nur lösen lässt, wenn neues Wissen über die Natur physikalisch-chemischer Prozesse in technischen Systemen erworben wird, so handelt es sich um eine Situation vom wissenschaftlichen Typ (w). Hauptmerkmal: bekannte (erwartete) und erhaltene (reale) Ergebnisse bei der Realisierung eines bestimmten physikalisch-chemischen Prozesses im technischen System stimmen nicht überein. Zum Beispiel: Machen sie einen Vorschlag für ein Verfahren, mit dem große Werkstücke gehärtet werden können, ohne dass sie in einer Ölwanne gekühlt werden müssen. Zu all diesen Fragen gehört natürlich auch die Notwendigkeit die Gründe und Quellen dieser oder jener Erscheinung zu erkennen, und mögliche Ziele ihrer Anwendung zu definieren. Charakteristisch ist hier auch, dass sich in solchen Situationen die Problemstellung erneut Problemsituationen des sozialen Typs nähert. Weil ja das Fehlen spezieller Kenntnisse auf das soziale System zurückzuführen ist – auf das System der Wissenschaft und Forschung oder das Bildungssystem. Das Dreieck in der Tabelle Abb. 16.2 zeigt den Bereich, in dem Methoden der klassischen TRIZ vorrangig angewendet werden. Um eine Problemsituation richtig analysieren zu können, müssen Fragen beantwortet werden, die zur Formulierung eines technischen oder physikalischen Widerspruchs führen. Dadurch können uneffektive Zeitverluste und Verluste anderer Ressourcen für die Lösung der Problemsituation vermieden werden. Hinzu kommt, dass hierdurch die Möglichkeit entsteht, das TRIZInstrumentarium in seiner ganzen Breite zu verwenden. 16.2 Algorithmus für die Diagnostik einer Problemsituation Das Hauptziel der Diagnostik ist die Definition der operativen Zone und der damit verbundenen konkreten Aufgabenstellung. Die Etappe der Diagnostik muss immer vor der Aufgabenstellung erfolgen, obgleich diese einfache Regel entweder gar nicht beachtet oder nicht richtig beachtet wird. Die meisten Fehler entstehen, wenn man an die Lösung des Problems geht, ohne eine genaue Formulierung des Widerspruchs gefunden zu haben. In vielen Fällen werden auch die Gründe des Problems nicht richtig definiert. Ein weiterer typischer Fehler besteht im Versuch, eine Aufgabe zu lösen, die eigentlich aus mehreren miteinander verbundenen Aufgaben besteht.
16 Diagnostik des Problems
261
Es ist nützlich vor der Diagnostik, Prozeduren eines nicht-algorithmischen „Aufdröselns“ der Problemsituation anzuwenden (s. Abschn. 18-19). Das hilft, die üblichen (ungenauen, unvollständigen, unzuverlässigen) Vorstellungen vom Problem abzuschwächen und das Denken darauf vorzubereiten, nicht alltägliche funktional ideale Modelle aufzustellen. Es lassen sich die Gründe für das Problem, die Widerspruchsmodelle und Ressourcen in der operativen Zone besser definieren. Um eine richtige Diagnostik der Problemsituation durchführen zu können, ist es von Nutzen ein bestimmtes Schema einzuhalten, das wir hier als Algorithmus der Diagnostik einer Problemsituation bezeichnen wollen. Dieses Schema (Abb. 16.3) beinhaltet eine Reihe von Prozeduren, die insgesamt die Qualität der Analyse der Ausgangssituation erhöhen und das Denken darauf vorbereiten, zu weiteren konstruktiven Handlungen mit Hilfe der TRIZ-Instrumente überzugehen. Erfahrene Spezialisten können diese oder jene Prozedur auslassen, insgesamt aber entspricht dieses Schema der optimalen Organisation der Diagnostik eines Problems. ALGORITHMUS DER DIAGNOSTIK EINER PROBLEMSITUATION Bezeichnung des Beschreibung der Schritts Hauptprozeduren Definition der Entwicklungsziele des Systems mit Hilfe der Funkti1. Ziel ons-Kosten-Analyse und Gegenüberstellung mit den Entwicklungsgesetzen und Entwicklungslinien von Systemen (Abschn. 14-15) 2. System
Konstruktion eines funktionalen Systemmodells des konkreten Konflikts für die Definition seiner Quellen (operative Zonen – s.u. in diesem Abschnitt)
3. Widersprüche und OZ
Definition einer Vielzahl technischer oder physikalischer Widersprüche und einer Vielzahl entsprechender operativer Zonen
4. Ressourcen
Definition von Ressourcen in den ausgewählten operativen Zonen, im System und in der Systemumgebung
5. Meta-Strategie
Auswahl einer Meta-Strategie zur Lösung des Problems für jede operative Zone (s. Abschn. 14.1, Abb. 14.4)
6. Einrangieren der Aufgaben
Einrangieren der operativen Zonen nach dem Schwierigkeitsgrad der darin enthaltenen Probleme und Aufstellen einer Rangordnung für die Lösung der Aufgaben (Empfehlungen s. u. in diesem Abschn.)
7. Aufgaben
Kurze Formulierung von je einer konkreten Aufgabe für jede operative Zone und Übergang zur Etappe der Reduktion
Abb. 16.3. Empfohlene Prozeduren für die Diagnostik einer Problemsituation
In Schritt 1 wird eine allgemeine Diagnose des Systems durchgeführt, mit dem Ziel, die Komponenten des Systems zu definieren, die verbessert oder beseitigt werden sollen. Das erfolgt mit Hilfe der Funktions-Kosten-Analyse, entweder durch Gegenüberstellung des Entwicklungsniveaus des technischen Systems und seiner Komponenten mit den Entwicklungsgesetzen und Entwicklungslinien von Systemen oder durch andere Verfahren der Bewertung der Effektivität von Komponenten.
262
Taktik des Erfindens
Bsp. 113 (Forts. 4). Früher versuchte man, um das Verbrennen des Öls zu verhindern, die Wanne mit einem Deckel abzudecken, der eine Öffnung hat, die genau der Größe des Werkstücks entsprach. Bei neuen Werkstücken mussten immer wieder neue Deckel hergestellt werden. Es ist hier zu erkennen, dass die Lösung auf einem nichtdynamisierten Teil basiert (Deckel), was im Widerspruch zum Gesetz 3.1. Koordinierung der Rhythmik von Systemteilen steht, sowie auf der niedrigsten Position der Linien der Entwicklung von Instrumenten (Abb. 15.13) und von Stoffen (Abb. 15.14). In Schritt 2 können für komplizierte Bauteile und selbstverständlich für das gesamte System so genannte funktionale Systemmodelle des Konflikts konstruiert werden. Das Ziel einer Modellierung ist die Definition von Komponenten (oder Funktionen und Wirkungen), die gleichzeitig am Entstehen positiver und negativer Funktionen beteiligt sind. Solche Komponenten nennt man operative Komponenten und werden den entsprechenden operativen Zonen zugeordnet. Bsp. 113 (Forts. 5). Zu den Komponenten, die in der gegebenen Konfliktsituation beachtet werden müssen, gehören: das Erzeugnis, das Öl, der Rauch, die Luft. Es ist immer von Nutzen das gesamte System der Wechselwirkung dieser Komponenten graphisch darzustellen (Abb. 16.4). Hier wirkt das Öl, auf die Oberfläche des Erzeugnisses ein, es kühlt ihn nach und nach ab. Jedoch verbrennt das Öl durch Einwirkung der hohen Temperatur auf die Oberfläche des Erzeugnisses und durch das Vorhandensein von Sauerstoff und sondert Rauch ab. Der Rauch ist für die Luft ein negativer Induktor, da er sie verschmutzt. verschmutzt
3
Luft
1
Erzeugnis
4
Rauch
kühlt
erhitzt
stößt aus
oxydiert 2
Öl
Abb. 16.4. Funktionales Systemmodell des Konflikts für das Beispiel 113
Für die Diagnostik können auch ausführlichere Schemata konstruiert werden, z.B. unter Berücksichtigung dessen, dass Öl aus zwei Teilen besteht. Das Öl allgemein und eine dünne Grenzschicht, die unmittelbar mit der Oberfläche des hocherhitzten Werkstücks Kontakt hat. Und genau diese Grenzschicht erhitzt sich schnell, verbrennt in Anwesenheit von Sauerstoff in der Luft und sondert dann Verbrennungsprodukte in Form von Rauch ab. In Schritt 3 müssen Widersprüche der Wechselwirkung für die Komponenten formuliert werden, die zum funktionalen Systemmodell gehören. Es müssen die operativen Zonen beschrieben werden, die mit dem aufgedeckten Widerspruch verbunden sind. Bsp. 113 (Forts. 6). In Abhängigkeit vom Niveau der physikalisch-chemischen Untersuchungen der Komponenten können unterschiedliche Prozesse betrachtet
16 Diagnostik des Problems
263
werden und dementsprechend unterschiedliche Modelle von Widersprüchen konstruiert werden. Wir werden hier auf dem Makroniveau bleiben, das in der Abb. 16.4. dargestellt ist. Für dieses Schema können z.B. folgende Widerspruchsversionen formuliert werden. Technischer Widerspruch (Variante 1): die Härtung im Öl verbessert die Qualität des Erzeugnisses, verschmutzt aber die Luft durch das Entstehen von Rauch. Technischer Widerspruch (Variante 2): das Eintauchen des erhitzten Erzeugnisses ist wegen der Härtung notwendig, es führt jedoch zum Verbrennen des Öls, was die Verschmutzung der Luft durch Verbrennungsprodukte zur Folge hat. Für ein und dasselbe funktionale Systemschema können die Widerspruchsmodelle mit unterschiedlichen Beschreibungen dargestellt werden. Es muss versucht werden, in den Widerspruchsmodellen die positiven und negativen funktionalen Eigenschaften wiederzugeben: das erhitzte Erzeugnis, Qualität (Härtung) des Erzeugnisses, Verbrennen des Öls. Deshalb ist die zweite Variante der ersten vorzuziehen. Physikalischer Widerspruch (Variante 1): das Öl muss brennen, in Anwesenheit von Sauerstoff in der Luft und bei hohen Temperaturen der Oberfläche und soll nicht brennen, da dieses die Luft verschmutzt. Physikalischer Widerspruch (Variante 2): das Öl muss sich erhitzen, um die Wärme vom Erzeugnis aufzunehmen und es zu kühlen, und es soll sich nicht erhitzen, damit keine Verbrennung auftreten kann. Physikalischer Widerspruch (Variante 3): Sauerstoff muss da sein in der Luft, da das durch die natürliche Zusammensetzung der Luft bedingt ist, und Sauerstoff soll nicht da sein in der Luft, damit das Öl nicht brennt. Physikalischer Widerspruch (Variante 4): der Rauch muss da sein in der Luft, da er ein Produkt des Verbrennens des Öls ist, und Rauch soll nicht da sein in der Luft, damit die Luft nicht verschmutzt wird. Der physikalische Widerspruch muss die physikalisch-chemischen Eigenschaften des Prozesses widerspiegeln, die ihn mit der positiven und negativen Funktion in der gegebenen Problemsituation verbinden. Es sollte auf keinen Fall ein solcher Widerspruch notiert werden: das Erzeugnis muss erhitzt sein, damit die Härtung stattfinden kann, und soll nicht erhitzt sein, damit das Öl nicht verbrennt. Praktisch weist dieses Modell darauf hin, dass das Verfahren der Härtung erneuert werden muss. Damit wird auch die Aufgabe völlig verändert, was in dieser Situation unzulässig ist, da das Prinzip des Härtens in Öl erhalten werden muss. Die Existenz mehrerer alternativer Modelle in der Etappe der Diagnostik darf nicht als unzulässige Situation aufgefasst werden. Genauere Formulierungen werden wir in der Etappe der Reduktion aufstellen. Es darf jedoch nicht vergessen werden, dass verschiedene Formulierungen von Widersprüchen zu verschiedenen funktionalen idealen Modellen führen können, und in der Konsequenz auch zu verschiedenen Richtungen bei der Lösungssuche. Bsp. 113 (Forts. 7). An diesem einfachen Beispiel ist leicht zu erkennen, dass mit dem physikalischen Widerspruch nach Variante 2 die Komponenten 1 und 2 verbunden sind. Mit dem physikalischen Widerspruch nach Variante 3 die Komponenten 2 und 3 und mit dem physikalischen Widerspruch nach Variante 4 die Komponenten 3 und 4. Strukturmodelle für jede der OZ finden Sie in Abb. 16.5.
Taktik des Erfindens
264
1 erhitzt a)
2
3
Erzeugnis kühlt Öl
4
Luft
oxydiert b)
2
Öl
Rauch
verschmutzt c)
3
Luft
Abb. 16.5. Operative Zone für die Problemsituation in Beispiel 113
In Schritt 4 müssen Ressourcen bewertet werden, die sich in jeder der herausgestellten OZ befinden. Das kann Einfluss auf die Bewertung des Schwierigkeitsgrads der Aufgaben haben, die in der operativen Zone zu lösen sind. Eine Analyse kann man auf der Basis der Tabelle zur Ressourcenauswahl (Abschn. 8.2, Abb. 8.7 und 8.8) durchführen. Hier wollen wir das in vereinfachter Form tun. So sind für die OZ a) folgende Ressourcen potentiell nützlich: Größe und Geschwindigkeit des Eintauchens der Werkstücke, Größe und Form der Wanne, Standort der Wanne in der Werkhalle, Möglichkeit des Ausgliederns der Wanne aus der Werkhalle. Für die zweite OZ b) sind es: dieselben wie auch für die Zone a), plus der Möglichkeit des Einbringens von Zusätzen in das Öl, die seine Oxidationsbereitschaft absenken, der Möglichkeit, eine Atmosphäre ohne Sauerstoff oder ein Vakuum in der operativen Zone zu schaffen. Für die dritte OZ c): sind es dieselben wie für Zone a). In Schritt 5 muss man in etwa den Charakter der Aufgaben und der voraussichtlichen Meta-Strategie für ihre Lösung definieren. Bsp. 113 (Forts. 8). So kommen für die operativen Zonen a) und b) eindeutig korrigierende Aufgaben mit Minimalstrategien des mittleren Schwierigkeitsgrads in Betracht, da in den operativen Zonen gewisse Ressourcen vorhanden sind oder eingeführt werden können, die potentiell für die Lösung der Aufgabe von Nutzen sein können. In der operativen Zone c) kann eine korrigierende Aufgabe nach einer Minimalstrategie mit dem geringsten Schwierigkeitsgrad formuliert werden, da auch die Verfahren des Ableitens der verschmutzten Luft und des Zuführens sauberer Luft bekannt sind. Gleichzeitig aber schließt die Situation c) bei weitem nicht die Möglichkeit aus, ungewöhnlich gute Lösungen zu entwickeln. In Schritt 6 muss der Schwierigkeitsgrad der Aufgaben bewertet werden, die in jeder operativen Zone zu lösen sind und eine bestimmte Reihenfolge für die Lösung der Aufgaben festgelegt werden. Bsp. 113 (Forts. 9). Im gegebenen Fall haben wir uns aufgrund der Resultate der Diagnostik auf drei unterschiedliche Aufgabenstellungen beschränkt. Es ist bei weitem nicht leicht, vorher zu definieren, welche der Varianten der Aufgabenstellung die beste sein wird, um das System im Ganzen zu verbessern. So würde man vom gesunden Menschenverstand ausgehend sagen, dass eine Lösung nach dem Modell c) wenig aussichtsreich ist, da hier die Gründe für das Verbrennen des Öls nicht beseitigt werden. Andererseits könnte hier eine sehr preiswerte Lösung herauskommen (und sogar eine die mit Erfinden nichts zu tun hat), die der Minimalstrategie entspricht wie z.B. die Installation wirkungsvoller
16 Diagnostik des Problems
265
Rauchabzüge. Gleichzeitig könnte aber ein Denken ohne Stereotype, eine Möglichkeit in Betracht ziehen, bei welcher der „schädliche“ Rauch für das Verrichten bestimmter nützlicher Funktionen in diesem Prozess oder in der Werkhalle verwendet werden könnte. Die zwei anderen Varianten sind gleichwertig, obwohl die Variante a) etwas einfacher aussieht. Jedoch nur, weil hier angenommen werden kann, dass eine Lösung gefunden wird, ohne sich in die physikalisch-chemischen Besonderheiten des Prozesses des Verbrennens vertiefen zu müssen, was jedoch in der operativen Zone b) notwendig werden kann. Andererseits sind Lösungen auf dem Niveau des Stoffs in der Regel die effektivsten mit langfristigsten Perspektiven, was sich auch in den Entwicklungslinien von Instrumenten und Stoffen widerspiegelt. Insgesamt werden folgende Regeln empfohlen: 1. zunächst werden die Aufgaben mit technischen Widersprüchen gelöst, und danach die mit physikalischen; 2. zunächst werden „einfachere“ Aufgaben gelöst, danach schwierigere – mit „einfachen“ Aufgaben kann man sich besser auf die Lösung komplizierterer vorbereiten, da hier die Hoffnung besteht, das Problem im Ganzen zu erkennen oder verdeckte Komplikationen zu entdecken; 3. als erste wird die Aufgabe ausgewählt, deren Lösung gleich mehrere Probleme beseitigen könnte (eine solche Aufgabe nennen wir Schlüssel oder Wurzelaufgabe – in der modernen TRIZ gibt es Empfehlungen, wie man solche Aufgaben finden kann). Um Klarheit zu haben, nehmen wir an, dass als erste die Aufgabe für die operative Zone c) gelöst wird, danach die für Zone a), und dann die für Zone b). In Schritt 7 müssen für jede operative Zone konkretisierte Aufgabenstellungen formuliert werden. Bsp. 113 (Forts. 10, weiter s. Praktikum zu den Abschnitten 16-17). Im System, zu dem das Erzeugnis, das Öl, die Wanne und die Luft gehören, muss mit minimalen Veränderungen das Verbrennen des Öls in den folgenden Varianten von Aufgabenstellungen verhindert werden: - für die operative Zone c): beim Eintauchen des erhitzten großen Werkstücks in die Ölwanne für die Härtung bildet sich Rauch, der die Luft verschmutzt; - für die operative Zone a): beim Eintauchen des erhitzten großen Werkstücks in die Ölwanne für die Härtung wird die Ölschicht, die unmittelbar mit der Oberfläche des Erzeugnisses in Kontakt kommt, auf eine Temperatur erhitzt, bei der das Öl verbrennt; - für die operative Zone b): das Vorhandensein von Luft in der Härtewanne führt dazu, dass das Öl bei Berührung mit der hoch erhitzten Oberfläche des Werkstücks verbrennt. Der betrachtete Algorithmus der Diagnostik liefert die notwendige Grundlage für den Übergang zur Etappe der Reduktion, für das genaue Modellieren der Widersprüche, für die Formulierung des idealen funktionalen Modells und eine gründliche Analyse der Ressourcen. Weiter dann erfolgt die Lösung entsprechend der Etappen des Meta-ARIZ. Dabei ist es möglich, dass für einzelne Aufgaben die zyklische Wiederholung bestimmter Prozeduren oder der gesamten Etappe der Diagnostik erforderlich ist.
266
Taktik des Erfindens
17 Verifikation der Lösung 17.1 Effektivität der Lösung Die Verifikation ist eine verantwortungsvolle und nicht gerade einfache Etappe. Der Grund dafür ist, dass es fast unmöglich ist, so viele unterschiedlichste Kenntnisse zu haben, um die Qualität einer Lösung und die Folgen ihrer Anwendung voraussehen und vollständig bewerten zu können. Wie viele dramatische Schicksale von Erfindern sind mit der Überbewertung oder auch Unterbewertung ihrer Ideen verbunden! Im ersten Fall kämpften die Erfinder fanatisch für die Anerkennung ihrer Idee, die entweder nicht genug begründet und nicht effektiv oder manchmal auch einfach nicht durchdacht und unnötig war. Im zweiten Fall forschten die Erfinder an ihren großartigen Ideen einfach nicht weiter und konnten sie nicht in praktisch realisierbare Lösungen umsetzen. Das machten dann nach ihnen oft andere, die infolgedessen zu großen Erfindern und erfolgreichen Unternehmern wurden. Die Orientierung auf das Ideale Endresultat, auf das ideale funktionale Modell (s. Abschn. 9.2.) verhindert sofort ineffektive Varianten und die damit verbundene Suche. Das Denken wird sofort in den Bereich der Existenz tragfähiger, d.h. hocheffektiver Lösungen gerichtet. Viele Techniker und Ingenieure jedoch, die mit der TRIZ nicht vertraut sind, verzichten auf die Lösung von Problemen mit verschärften physikalisch-technischen Widersprüchen. Sie sind schnell bereit, für die gewünschte Funktion mit hohem Energieaufwand, Verbrauch von Stoffen und Informationen zu „bezahlen“. Hinzu kommen oft Produktions- und Nutzungsprobleme sowie negative Umwelteinflüsse usw. Das traditionelle technische Denken ist oft nicht ausreichend auf die effektive Verwendung von Ressourcen bei der Lösung technisch-technologischer Probleme gerichtet. Bei kleineren konstruktionsbedingten Veränderungen ist es relativ einfach die Folgen einer Lösung zu ermitteln. Das gilt besonders dann, wenn gute mathematische Imitationsmodelle in CAD-Systemen vorhanden sind. Eine hocheffektive Lösung muss sofort die Kennziffern für die Qualität eines Systems verbessern, die negativen Faktoren müssen an Gewicht verlieren und die positiven an Gewicht gewinnen (Abschn. 14.2 „Ideale Maschine“). Bei der Entwicklung einer Erfindung sieht die Sache jedoch anders aus. Erstens wird jede Idee bis zur Vollendung der Etappe der Verifikation entsprechend der Meta-ARIZ nur als Hypothese zur Verbesserung eines technischen Systems angesehen. Das bedeutet, dass diese Idee noch nicht von Konstrukteuren bearbeitet wurde. Im besten Fall wird die Idee zusammen mit Konstrukteuren erörtert, wenn sie im Erfinderteam mitarbeiten. Doch in den meisten Fällen arbeitet ein Spezialist allein an der Suche nach einer Lösung und nicht selten auf eigene Initiative. Somit hat er kaum die nötige Unterstützung von Spezialisten anderer Richtungen. Zweitens: die Anwendung von CAD-Systemen ist oft nicht möglich, da für eine neue Lösung ein adäquates mathematisches Modell erstellt werden muss. Das jedoch erfordert viel Zeit, und hinzu kommen oft noch zusätzliche mathematische Forschungen.
17 Verifikation der Lösung
267
Dennoch wurden für die Verifikation von Lösungsideen in der TRIZ einige praktische Empfehlungen ausgearbeitet, die dabei helfen, ernsthafte Fehler bei der Bewertung der Qualität einer Lösung zu vermeiden. Zu diesen Empfehlungen gehören folgende Kontrollregeln: Regel von der Beseitigung des Widerspruchs. Ein notwendiges Merkmal für eine effektive Lösung ist die Beseitigung des Widerspruchs als Ursache für das Problem. Um zu überprüfen, ob diese Bedingung erfüllt ist, reicht es aus, zwei Beschreibungen “War” und “Wurde” miteinander zu vergleichen, und in ganz allgemeiner Form eine Schlussfolgerung zu ziehen, wurde der Widerspruch gelöst, welcher der Grund für die Existenz des Problems war, und auf welche Art und Weise. Die Überprüfung muss für jede Alternative des technischen Widerspruchs und für jeden Konfliktzustand des physikalischen Widerspruchs erfolgen. Regel vom Entstehen von Supereffekten. Diese Regel betrifft die Suche nach unvorhergesehenen qualitativen oder quantitativen Veränderungen, die bei der neuen Funktionsweise aufgetaucht sind. Wenn wir Veränderungen vornehmen, ändern wir die Eigenschaften von Komponenten (Elementen, Details, Baugruppen, Subsystemen, Systemen, Erzeugnissen im Ganzen). Die Eigenschaften von Komponenten werden in Parametern ausgedrückt. Für quantitative Veränderungen eines Parameters sind lineare Veränderungen vom Typ „mehr“ oder „weniger“ charakteristisch. Wenn die Eigenschaft einen qualitativen Charakter hat, z.B. Form, Farbe oder Bedienungsfreundlichkeit. Oder es kommt bei den vorgenommenen Modifikationen zu Veränderungen bei den Eigenschaften, spricht man von qualitativen Veränderungen (nicht-linearen, welche die Eigenschaft des Objekts selbst verändern). Nach qualitativen Veränderungen hat das Objekt auf jeden Fall neue Eigenschaften, wobei das Verschwinden gewisser Eigenschaften im Systemsinn auch das Erscheinen einer neuen Eigenschaft darstellt. Wenn dabei diese neue Eigenschaft nicht das eigentliche Ziel der Erfindung war, so nennen wir das Supereffekt (sehen Sie sich noch einmal die Definition im Abschnitt 14.2 an). Leider können nicht nur positive, sondern auch negative Supereffekte entstehen. Angesichts der besonderen Wichtigkeit wurde die Methodik der Suche nach Supereffekten im Algorithmus der Verifikation der Lösung formuliert und wird später im Abschnitt 17.3 behandelt. Regel von der Prüfung der Realisierbarkeit. Alle Eigenschaften einer Idee las-sen sich nur in der Praxis vollständig beschreiben. Vieles kann auch an Mustern, Modellen und durch mathematisches Modellieren überprüft werden. Doch das geschieht erst zu einem späteren Zeitpunkt, wenn die Idee selbst bereits zumindest für eine konstruktionstechnische Prüfung angenommen wurde. Diese Regel ist auf die Bewertung von Lösungsideen gerichtet, bei der untersucht wird, ob hierbei keine grundlegenden physikalischen und technischen Gesetze im Widerspruch stehen. So gibt es immer noch Versuche, einen „ewigen Motor“ zu erfinden – das Perpetuum Mobile. Wenn man diese Regel anwendet, können früher verdeckte Probleme auftauchen, die es erforderlich machen, neue erfinderische Lösungen zu finden.
268
Taktik des Erfindens
Regel von der Kontrolle der Anwendbarkeit. Diese Regel zielt darauf, nicht bei nur einer konkreten Anwendung einer gefundenen Idee Halt zu machen, sondern Möglichkeiten zu untersuchen, wie die Idee weiterentwickelt oder auf andere Bereiche der Technik übertragen werden kann. Wenn man dieser Regel folgt, kann das zum Entstehen und zur Lösung neuer erfinderischer Aufgaben führen. Regel von der Kontrolle der Neuartigkeit. Die Regel sieht eine Untersuchung des Patentbestands und technischer Literatur vor, um den Grad der Neuartigkeit einer Lösung zu überprüfen. Das ist unbedingt notwendig, wenn vorgesehen ist, eine Lösungsidee patentieren zu lassen. Regel von der Kontrolle der Methode. Diese Regel empfiehlt zu überprüfen, ob nicht auch das Lösungsverfahren selbst neu ist. In diesem Fall können Sie Ihr Instrumentarium mit einem neuen Verfahren anreichern, dieses Verfahren in den TRIZ-Katalog aufnehmen, oder es anderweitig gestalten. 17.2 Entwicklung der Lösung Für die Entwicklung einer technischen Lösung und der Möglichkeiten ihrer Anwendung können verschiedene Instrumente verwendet werden. Die einfachsten, jedoch durchaus effektiv, sind Kombinationstabellen, die morphologischen Matrizen ähneln (Abschn. 4.2, Abb. 4.5). Kommen wir zu einem klassischen TRIZ-Beispiel „Die Entwicklung des Magnetfilters“. Früher wurden für die Reinigung erhitzten Gases von Verschmutzungen Filter verwendet, die aus mehreren Schichten eines Metallgewebes bestanden. Das Gas sollte problemlos durch das Gewebe dringen können und die Verunreinigungen sollten in den Maschen des Gewebes haften bleiben. Solche Filter hatten den großen Nachteil, dass sie schnell voller Schmutz waren und nur schwer gereinigt werden konnten (durch einen Luftstrahl in entgegengesetzte Richtung). Und so wurde ein Magnetfilter erfunden (Abb. 17.1). Bsp. 114. Magnetfilter. Entsprechend der Formel Nr. 1 (s. weiter in Tabelle Abb. 17.2) des Erfindens wurden zwischen den Polen eines starken Elektromagneten ferromagnetische Teilchen eingebracht (Metallspäne). Sie bilden eine poröse Masse, durch die das verschmutzte Gas hindurch tritt. Die Verschmutzungen (Staub) bleiben in diesen Poren haften. Die Reinigung eines solchen Filters ist einfach: es muss nur der Elektromagnet abgeschaltet werden. Der Filter wird nun gereinigt und die ferromagnetischen Teilchen fallen zusammen mit den Verunreinigungen nach unten in eine Reinigungswanne. Abb. 17.1. Aufbau des Danach wird der Elektromagnet erneut eingeschaltet und Magnetfilters der Filter „sammelt“ nun wiederum die gereinigten Teile. Versuchen wir nun ein Strukturmodell des Filters auf eine Formel zu bringen. Bei der Ausgangsversion befindet sich außerhalb ein Magnetsystem M, darin wiederum ein ferromagnetisches Pulver (das Arbeitsorgan oder der Induktor I), innerhalb
17 Verifikation der Lösung
269
des Pulvers hingegen ist Staub (das Erzeugnis oder der Rezeptor R) bestehend aus dem Strom des zerstäubten Gases. So kann man also die Struktur folgendermaßen fixieren: MIRRIM. Das R wurde aus Gründen der Symmetrie doppelt verwendet. Erstes Transformationsverfahren: Umstellen der Symbole innerhalb der Strukturformel - 1) MIRRIM, 2) IMRRMI, 3) RMIIMR, 4) MRIIRM, 5) IRMMRI, 6) RIMMIR. Sind hierbei neue Filter entstanden? So, z.B. bei Schema 5, das ja irgendwie nach dem Prinzip „entgegengesetzt“ im Vergleich zu Schema 1 aufgestellt wurde. Hier muss der Magnet mit einem Pulver umgeben werden, durch welches das Gas dann strömt. Bsp. 115. Entwicklung des Magnetfilters. Um die Verfahrensweise zu überprüfen wurde die Erfindung 2 zurate gezogen: ein elektromagnetischer Filter für die Reinigung von Gasen und Flüssigkeiten, der eine Quelle eines Magnetfeldes und Filterelemente aus körnigem magnetischen Material enthält. Er zeichnet sich dadurch aus, dass zur Senkung des spezifischen Energieverbrauchs und zur Steigerung der Produktivität, das Filterelement um die Quelle des Magnetfeldes herum installiert wurde und so eine äußere geschlossene Magnetkontur bildet. Das entspricht in vollem Maße dem Schema 5. Diese Erfindung wurde interessanterweise jedoch erst 7 Jahre nach der Erfindung 1 gemacht! Zweites Transformationsverfahren: Veränderung der Parameter von Komponenten der Strukturformel. Bsp. 116. Magnetventil. Was passiert, wenn das Magnetfeld das ferromagnetische Pulver enger zusammenpresst. Dann gelangt durch den Filter nichts mehr hindurch – weder Staub, noch Gas, noch Flüssigkeit. Jedoch ist aus dem Filter jetzt ein Ventil geworden! Und anhand dieser Idee sind einige Patente zur Regulierung von Strömen unterschiedlichster Stoffe entstanden, und das jedes Mal von anderen Urhebern und in Zeitabständen von mehreren Jahren! Die Erfinder hatten nicht an der Weiterentwicklung ihrer Lösung gearbeitet und nicht bemerkt, dass die von ihnen entwickelten Geräte verschiedenartige Bauarten und Anwendungsgebiete haben könnten. Und all das sind Erfindungen. Drittes Transformationsverfahren: Veränderung der Struktur und der Parameter von Komponenten einer Erfindung. Hierbei ist es günstig eine morphologische Matrize einzusetzen. So kann man z.B. eine Matrize entwickeln (Abb. 17.2), in der alle 6 Strukturkomponenten und 5 Zustände des Erzeugnisses berücksichtigt werden. Zustand des Erzeugnisses
Schema der Konstruktion MIRRIM
IMRRMI
RMIIMR MRIIRM IRMMRI RIMMIR
Gas
1
2
3
4
5
6
Flüssigkeit
7
8
9
10
11
12
Fester Körper
13
14
15
16
17
18
Pulver
19
20
21
22
23
24
Elastischer Stoff
25
26
27
28
29
30
Abb. 17.2. Morphologische Matrize für die Idee zur Entwicklung eines Magnetfilters
270
Taktik des Erfindens
Der ursprüngliche Magnetfilter nach Erfindung 1 passt in das Kästchen 19: Schema MIRRIM, Erzeugnis – Staub (und das ist ein Pulver!). Das Magnetventil gehört in die Kästchen 1, 7 und 19. Interessant ist auch das Kästchen 13: durch ein ferromagnetisches Pulver verläuft ein Strom eines festen Stoffs – z.B. wird ein Draht dort hindurchgezogen. Un-ter Einwirkung des Magnetfelds drückt das Pulver auf den Draht, und er wird dünner. Ein ähnlicher Prozess wird auch bei der Herstellung von Drähten verwendet: Das Vorprodukt wird durch die Öffnungen einer Metallplatte (Ziehdüsen) gezogen. Zunächst durchläuft der Draht große Düsen, danach immer kleinere, so dass das Vorprodukt sich nach und nach in einen dünnen Draht verwandelt. Die Düsen verschleißen sehr schnell. Man könnte doch aber anstelle der Metallplatte ein Magnetpulver verwenden, das durch ein Feld zusammengepresst wird, entsprechend Kästchen 13? Eine solche Erfindung 3 wurde auch gemacht. Bsp. 117. Ziehen eines Drahts ohne Ziehdüse. Dieses Verfahren zum Ziehen von Stahldrähten, das eine Deformation durch Dehnen enthält, zeichnet sich durch eine Besonderheit aus. Um einen Draht mit konstantem Durchmesser herstellen zu können, wird die notwendige Deformation dadurch erreicht, dass der Draht durch eine ferromagnetische Masse gezogen wird, die sich in einem Magnetfeld befindet. Bsp. 118. Schleifverfahren. Erfindung 4: ein Verfahren zum Schleifen von Oberflächen mit einem Gerät, das die Form eines Ballons aus elastischem Material hat. Es zeichnet sich dadurch aus, dass zur Steigerung der Bearbeitungsqualität in den Ballon ferromagnetische Teilchen eingeführt werden. Der Druck auf das Gerät wird durch Einwirken eines äußeren Magnetfeldes hergestellt. Außen befindet sich ein Magnetfeld, im Inneren – ein Ballon mit elastischen Wänden, im Ballon – ein ferromagnetisches Pulver. Schema MRIIRM, Kästchen 28. Bsp. 119. Verfahren zum Zerstäuben von Schmelzgut. Erfindung 5: ein Verfahren zum Zerstäuben polymeren Schmelzgutes durch Einwirkung eines komprimierten Gases auf den Strom des Schmelzgutes. Es zeichnet sich dadurch aus, dass zur Erhöhung des Dispersionsgrades des Schmelzgutes, in das Schmelzgut ein ferromagnetisches Pulver eingebracht wird. Danach wird das Schmelzgut durch einen Bereich mit einem alternierenden Magnetfeld geleitet. Außen befindet sich ein Magnetfeld, im Inneren – das polymere Schmelzgut, und darin – ein Pulver. Schema MRIIRM, Kästchen 10. Das Umstellen der Komponenten liefert 6 Schemata für unterschiedliche Anlagen, die Veränderung des Zustands des Erzeugnisses ermöglicht es, 5 Varianten aufzustellen. Insgesamt ergeben somit diese Veränderungen 30 Kombinationen (Abb. 17.2). In all diesen Schemata wurden Magnetfeld und Erzeugnis linear zueinander angeordnet. Was wäre jedoch, wenn man auch relative Drehbewegungen berücksichtigen würde? Auch eine solche Erfindung wurde gemacht. Bsp. 120. Verfahren zum Intensivieren eines Prozesses. Erfindung 6: ein Verfahren zur Gewinnung anorganischer Pigmente, das sich dadurch auszeichnet, dass zur Steigerung der Intensität, die Wechselwirkung in einem rotierenden Magnetfeld unter Anwesenheit von ferromagnetischen Teilchen ausgeführt wird. Erneut das Schema MRIIRM, wenn es sich um kein rotierendes Feld handelte, würde die Erfindung 6 in das Kästchen 22 in der Abb. 17.2 gehören. Eigentlich
17 Verifikation der Lösung
271
jedoch müsste man genau so eine Tabelle für ein rotierendes Magnetfeld aufstellen, dann aber mit den Nummern 31-60. In diesem Fall würde die Erfindung 6 in das Kästchen 52 gehören. Es hat sich also gezeigt, dass das Ausgangsschema des Magnetfilters zu 60 (!) verschiedene Schemata umgebildet werden kann. Doch das hat bisher kaum jemand bemerkt... Und deshalb empfiehlt die TRIZ, bei jeder Erfindung in der Etappe des Verifizierens nach dem Meta-ARIZ auf die eine oder andere Weise nach Möglichkeiten der Weiterentwicklung der Lösung zu suchen. Die einfachsten Verfahren haben wir uns gerade angesehen. 17.3 Algorithmus der Verifikation von Lösungen Bei der Suche nach Supereffekten werden faktisch alle Eigenschaften der neuen Lösung untersucht. Aus diesem Grund hat die Methodik auch eine solche allgemeine Bezeichnung wie Algorithmus der Verifikation von Lösungen (Abb. 17.3) erhalten. Das Herausstellen von Supereffekten hat zwei Hauptziele: Möglichkeiten der Entwicklung einer Lösung zu bestimmen und ungerechtfertigte Ausgaben für Weiterentwicklung und Versuche, unannehmbare Ideen zu realisieren, zu verhindern. Bsp. 84. Eine Gasturbine der Firma SIEMENS (Abschluss). Überprüfen der notwendigen Bedingung: es wurde ein prinzipiell richtiger Schritt in Richtung vollständige Beseitigung der grundlegenden physikalischen Widersprüche unternommen. Überprüfen der hinreichenden Bedingungen: die Ergebnisse befinden sich in Tabelle Abb. 17.4 (die genauen Daten sind Eigentum von Siemens). Praktikum für die Abschnitte 16 - 17 44. Wanne für das Härten. Schließen Sie die Lösung der drei Aufgaben für das Bsp. 113 ab (Forts. 10, Ende Abschn. 14.2). 44.1. Vergessen Sie nicht, für jede Aufgabe das funktional ideale Modell zu formulieren. 44.2. Überprüfen Sie, ob in Ihren Lösungen positive oder negative Supereffekte vorhanden sind. 44.3. Überprüfen Sie, ob Ihre Lösungen auch in anderen Industriezweigen verwendet werden können. 44.4. Achten Sie darauf, dass manche Ideen bei der Lösung von Aufgaben mit verschiedenen Aufgabenstellungen brauchbar sind. Manchmal können solche Lösungen auftauchen, die gleich bei mehreren Aufgabenstellungen das Problem von Grund auf beseitigen, weil bei einer solchen Lösung die Notwendigkeit entfällt, andere Aufgaben zu lösen. 44.5. Vergleichen Sie alle gefundenen Lösungen nach verschiedenen Kriterien, z.B. nach ihrer Umweltverträglichkeit, Einfachheit der technischen Realisierung, ökonomischer Effektivität.
272
Taktik des Erfindens
44.6. Beim Auftreten „unüberwindbarer“ Schwierigkeiten bei der Lösung von Aufgaben in den Situationen a) und b) versuchen Sie die Methode des Modellierens mit kleinen Figürchen aus Abschn. 18.3 anzuwenden. ALGORITHMUS DER VERIFIKATION VON LÖSUNGEN
Nr
Prozeduren
1 2 3 4
Ein Strukturschema des vorgeschlagenen Objekts erstellen
5 6
Neu eingeführte Komponenten aufzeigen.
Die Funktionen der Komponenten auf allen Niveaus definieren Anhand des Strukturschemas die Ströme der wichtigsten Ressourcen definieren Die Abhängigkeiten der Funktionen von Parametern aufzeigen. Qualitative und quantitative Eigenschaften und Funktionen definieren. Beginnend mit den neu eingeführten Komponenten die Veränderungen an jedem Strom von Ressourcen nachvollziehen, um eine Bewertung der Veränderungen von Funktionen aller Stufen bis hin zur höchsten Stufe (nützliche Hauptfunktion des Objekts) vornehmen zu können.
7
Den Charakter der Veränderung von Funktionen in der Vorkonflikt-, Konflikt- und Nachkonfliktphase in der operativen Zeit an der alten Lösung überprüfen.
8 9
Die Veränderung der Konstruktionsressourcen überprüfen. Die neuen positiven Funktionen und Eigenschaften überprüfen (positive Supereffekte). Ihren Einfluss auf die Effektivitätskennziffern des Objekts bewerten.
10 Die Folgen von positiven Supereffekten untersuchen. Eine Übersicht der Veränderungen aufstellen (positiver und negativer), die sich um das Objekt herum bei Betriebsweise und Nutzung innerhalb seines Lebenszyklus ergeben.
11 Möglichkeiten einer Verbesserung der Lösung untersuchen. 12 Die neuen negativen Funktionen und Eigenschaften überprüfen (negative Supereffekte). Ihren Einfluss auf die Effektivitätskennziffern des Objekts bewerten.
13 Die Folgen untersuchen, die aus dem Entstehen der negativen Supereffekte resultieren. Eine Übersicht der Veränderungen aufstellen (positiver und negativer), die sich um das Objekt herum bei Betriebsweise und Nutzung innerhalb seines Lebenszyklus ergeben.
14 Möglichkeiten der Beseitigung entstandener Mängel untersuchen. Wenn nötig, die überprüfte Lösung verwerfen, neue Probleme für Erfindungen formulieren und zur Suche neuer Ideen zurückkehren. Abb. 17.3. Algorithmus der Verifikation von Lösungen
45. Gasturbine von SIEMENS. Untersuchen Sie Möglichkeiten, die gefundenen Lösungen weiterzuentwickeln. Führen Sie die Diagnostik des neuen Systems durch, mit dem Ziel es auf der Basis der Gesetze und Linien der Systementwicklung zu verbessern (s. auch die Abschn. 15.1 und 15.2). 46. Autobahn. Führen Sie eine Diagnostik der Autobahn durch, mit dem Ziel, sie auf der Basis der Gesetze und Linien der Systementwicklung zu verbessern.
17 Verifikation der Lösung
273
Formulieren Sie Widersprüche, definieren Sie mehrere operative Zonen und stellen Sie für jede der operativen Zonen eine Aufgabe für das Erfinden auf. ʋ
Verfahrensweise
5
Auf die neu eingeführten Komponenten verweisen: um den Funktionsraum der Turbine herum wurden 24 Brenner installiert.
6
Bewertung der Veränderungen von Funktionen aller Stufen bis hin zur höchsten Stufe (nützliche Hauptfunktion des Objekts): Der Wirkungsgrad hat sich auf 38,5 % anstelle der bisherigen 36 % erhöht! Das ist ein großer Erfolg!
7
Den Charakter der Veränderung von Funktionen in der Vorkonflikt-, Konflikt- und Nachkonfliktphase in der operativen Zeit an der alten Lösung überprüfen: es wird eine gleichmäßigere Belastung der Schaufeln erreicht.
8
Die Veränderungen der Konstruktionsressourcen überprüfen: ein Supereffekt wurde entdeckt – die Möglichkeit Turbinen mit einer geringeren Größe herzustellen, die den gleichen Wirkungsgrad haben.
9
Die neuen positiven Funktionen und Eigenschaften überprüfen (positive Supereffekte). Ihren Einfluss auf die Effektivitätskennziffern des Objekts bewerten: ein besonders wertvoller Supereffekt wurde aufgedeckt - die Verbesserung der Reparatureignung der Turbine, da jetzt die Reparatur eines jeden Brenners möglich ist, ohne die Turbine außer Betrieb zu setzen!
Die Folgen der Nutzung von Möglichkeiten untersuchen, die aus dem Entstehen der positiven Supereffekte resultieren. Eine Übersicht der Veränderungen aufstellen (positiver und negativer), die sich um das Objekt herum bei Betriebsweise und Nutzung innerhalb seines Lebenszyklus ergeben: 1. Materialeinsparungen und ein geringerer Arbeitsaufwand bei der Herstellung der 10 Turbine; 2. Platzeinsparung und weniger Brennstoffverbrauch bei der Nutzung der Turbine; 3. Eine weitaus größere Lebensdauer der Schaufeln – Materialeinsparungen und ein geringerer Arbeitsaufwand. Der ökonomische Effekt (während des Lebenszyklus) beträgt pro Turbine mehrere Millionen Mark. Möglichkeiten einer Verbesserung der Lösung untersuchen: 1. man sollte die Strategie der Aufteilung widersprüchlicher Eigenschaften beim Ma11 terial der Schaufeln betrachten; 2. die Strategie des Zerteilens des Arbeitsorgans sollte fortgesetzt werden. Abb. 17.4. Beispiel für die Verifikation der Lösung im Beispiel 45
47. Ideen für das Unternehmertum. Überprüfen Sie die Möglichkeit, die Produktion Ihres Unternehmens weiterzuentwickeln oder Produktionskosten zu senken (Lagerung, Transport, Bedienung). Machen Sie das auf der Basis einer Analyse der Vorzüge und Mängel der Objekte, die Sie für die Analyse gewählt haben. Stellen Sie dabei Aufgaben für die Weiterentwicklung dieser Objekte mit dem Algorithmus der Diagnostik der Problemsituation auf. 48. Ihre Erfindungen. Überprüfen Sie die Möglichkeiten der Weiterentwicklung und Erweiterung der Anwendungsbereiche Ihrer früher bereits gemachten Erfindungen.
Erfindungskunst
Gute Ergebnisse können nur bei einer hohen Kultur des Denkens erzielt werden. Ein Wissenschaftler, Konstrukteur, Erfinder braucht eine starke und lebendige Phantasie. Leider ist in vielen Fällen das Potential an Phantasie sehr gering. Es kann so erscheinen, dass die Anwendung von Gesetzen, Verfahren, Standards dem „Flug der Phantasie“ diametral entgegenstünden. Der gesamte Apparat der TRIZ ist jedoch genau darauf ausgerichtet, eine starke und gut steuerbare Phantasie zu fördern. Genrich Altschuller
18 Pragmatismus der Phantasie 18.1 Nicht-algorithmische TRIZ-Methoden „Die Entwicklung der Technik, wie jede Entwicklung überhaupt, verläuft nach Gesetzen der Dialektik. Deshalb gründet sich die TRIZ auf der Anwendung der dialektischen Logik bei der schöpferischen Lösung technischer Aufgaben. Jedoch Logik allein reicht nicht aus. Man muss auf jeden Fall die Besonderheiten der Instrumente berücksichtigen, mit deren Hilfe der Erfinder arbeitet, und dieses Instrument ist ein ganz besonderes – nämlich das Gehirn des Menschen“. Das schrieb vor 30 Jahren der Begründer der TRIZ [3]. Er betonte, dass bei jeder Art von Kreativität die starken Seiten des menschlichen Denkens und Charakters maximal genutzt werden. Das sind Seiten wie Intuition, Vorstellungskraft, Ausdauer, die Fähigkeit viel zu arbeiten, Mut, Bildung usw. Um jedoch Fehler und Zeitverluste zu vermeiden, gilt für die kreative Persönlichkeit, wie auch für die Menschheit insgesamt, auch die schwachen Seiten des Denkens zu berücksichtigen, besonders die psychologische Trägheit. G. Altschuller führt folgende zwei Beispiele an: 1. um unter Wasser ein höheres Gewicht zu haben und somit den Auftrieb zu verringern benutzen Taucher Bleischuhe. Mehr als 100 Jahre wurden diese Schuhe nur in einer Größe hergestellt. So waren sie dem einen zu klein und dem anderen zu groß. Und erst ein Jahrhundert später wurden „auseinanderziehbare Schuhe“ entwickelt, eine ziemlich einfache, aber äußerst nützliche Verbesserung!
18 Pragmatismus der Phantasie
275
2. Linsen und Brillen waren bereits ca. 300 Jahre vor Erfindung des Teleskops bekannt. 300 Jahre lang kam kein Mensch auf die Idee, die Welt durch zwei hintereinander installierte Linsen zu betrachten! Warum eigentlich? Man war der Meinung, dass Linsen eine verzerrte Darstellung liefern. Zwei hintereinander installierte Linsen mussten (so dachte man mit „gesundem Menschenverstand“) zu einer noch stärkeren Verzerrung führen. Diese psychologische Barriere verhinderte das Entstehen des Teleskops über 300 Jahre hinweg! Es lässt sich aber wohl kaum eine Erfindung nennen, die einen so revolutionären Einfluss auf die Weltanschauung des Menschen hatte. Das Teleskop eröffnete der Menschheit die Sternenwelt und gab der Wissenschaft einen gewaltigen Entwicklungsimpuls. Es ist kaum vorstellbar, wie weit die Menschheit schon fortgeschritten wäre, wenn das Teleskop 300 Jahre früher erfunden worden wäre. Über die psychologische Trägheit schrieb der Autor der TRIZ folgendes [6]: „Der Erfinder konstruiert eine Reihe von Gedankenmodellen und experimentiert irgendwie mit ihnen. Dabei hat das Denken eines erfinderischen Menschen eine charakteristische Besonderheit: ...als Ausgangsmodell wird meist eine bereits existierende Maschine genommen. Ein solches Ausgangsmodell hat nur eingeschränkte Möglichkeiten, welche die Phantasie hemmen. Unter diesen Bedingungen ist es schwer, eine prinzipiell neue Lösung zu finden. Wenn der Erfinder mit der Definition des idealen Endergebnisses beginnt, ist das Ausgangsschema ein ideales Schema – aufs Äußerste vereinfacht und mit verbesserten Eigenschaften. Die weiteren Denkexperimente sind dann nicht mehr mit der Last üblicher Konstruktionsformen belastet und sofort entsteht eine äußerst perspektivreiche Richtung: der Erfinder versucht die besten Ergebnisse mit den geringsten Mitteln zu erreichen.“ Das Bewusstsein kontrolliert uns über Bilder, die durch Wörter verkörpert werden: „Die Aufgabenstellung erfolgt mit bekannten Termini. Diese Termini sind nicht neutral, sie streben danach, ihre eigenen Inhalte zu erhalten. Die Erfindung aber besteht darin, den alten Termini oder ihrer Gesamtheit einen neuen Inhalt zu verleihen. Der Grund für die Trägheit, welche der technischen Terminologie zu Eigen ist, liegt vor allem auch in der Trägheit des Denkens...“ Bsp. 121. Rohrleitung für Erdöl [6]. Bei einem Seminar wurde eine Aufgabe zur Verlegung einer Rohrleitung für Erdöl durch einen Spalt untersucht. Aufgrund der Bedingungen der Aufgabe war es nicht möglich, Stützen oder Aufhängungen zu installieren. Normalerweise verbiegt sich eine Rohrleitung zu einem Bogen (nach oben oder unten ausgebuchtet – bei großer Länge). Die Lösung war recht trivial: es musste die Querschnittsfläche des Rohrs vergrößert werden. Beim nächsten Mal wurde dieselbe Aufgabe anders formuliert: es muss eine Erdölleitung umgelegt werden. Unter den Lösungen war auch folgende: die Festigkeit hängt sowohl von der Fläche als auch der Form des Querschnitts ab. Bei derselben Fläche des Querschnitts ist eine Konstruktion in Form eines „Doppel-T’s“ am stabilsten (Abb. 18.1a). Noch eine Variante (Abb. 18.1b): Das Doppel-T kann man aus zwei Röhren herstellen, die einen kleineren Durchmesser haben, als die ursprüngliche Rohrleitung, die sich übereinander befinden und durch ein festes vertikales Verbindungsstück miteinander verbunden sind. Das Ergebnis war, dass die Teilnehmer durch den Ersatz eines bestimmten speziellen
276
Erfindungskunst
Terminus sich von der üblichen Vorstellung einer „Röhre mit rundem Querschnitt“ entfernten, mit der immer das Wort Röhre assoziiert wird. Jetzt wurden neue Vorschläge für eine Erdölleitung gemacht, aber nicht mehr nur mit rundem Querschnitt.
a)
b)
Abb. 18.1. Erdölleitung mit einem Querschnitt: a) hohles Doppel-T; b) Doppel-T aus zwei Röhren
Das Modell dieses Prozesses lässt sich auf der Grundlage des bekannten Schemas zur Überwindung von kognitiv-psychologischen Barrieren von B. Kedrow74 (Abb. 18.2) nachvollziehen. Bei der Lösungssuche bewegen sich die Gedanken des Menschen von den Fakten F, welche die Ausgangssituation beschreiben, zur Herausstellung des speziellen S, was diesen Fakten zu Eigen ist, für das Aufstellen einer Idee der Lösung. Die Gedanken bewegen sich in eine bestimmte Richtung (Į) und stoßen an die kognitiv-psychologische Barriere B. Diese Barriere bedeutet entweder, dass nicht ausreichend Wissen vorhanden ist, oder der notwendige psychologische Zustand nicht vorhanden ist. Welche Handlungen können mit der Aufgabe zur Beseitigung von Barrieren assoziiert werden? Solche z.B.: über die Barriere klettern oder springen. Und genau das wurde als Modell einer kreativen Eingebung gezeigt, die eine gewisse Sprungschanze darstellt, die den Gedanken über die Barriere wirft! Eine solche Sprungschanze kann ein anderer Gedanke sein, der z.B. in Richtung (ß) geht. Das kann praktisch jede beliebige Assoziation sein: Gegenstand oder Erscheinung (in der Method of focal objects), eine andere Idee, sogar eine unrichtige (im Brainstorming), phantastische Analogien (in der Synektik) usw.
a)
b)
F
F
(Į)
(Į)
? ? ?
S
B B
S (ß)
Abb. 18.2. Modell des Erfindens einer Idee nach B. Kedrow 74
B.M. Kedrow: Zur Theorie der wissenschaftlichen Entdeckungen. Sammelband „Wissenschaftliche Kreativität“, Moskau, 1969 (russ.)
?
Idee
18 Pragmatismus der Phantasie
277
Eigentlich wirkt hier genau dieselbe psychologische Trägheit! Stellen Sie sich doch mal die Frage: wobei genau stört diese Barriere? Wenn Sie nur die Idee sehen wollen, die sich hinter der Barriere befindet, könnten ihre Handlungen völlig anderes aussehen! Es könnten z.B. folgende Assoziationen passen: die Barriere von der Seite umgehen, über die Barriere mit Hilfe einer Leiter oder eines Ballons gelangen, die Barriere heruntersetzen oder zerstören, die Barriere zerschlagen, in sie ein Loch oder einen Tunnel machen usw. All das sind verschiedene Bilder. Und auch sie sind so speziell, dass sie zu Verwirrung führen, wie auch die Termini in jeder anderen Problemstellung. Das Wesen der Metapher von B. Kedrow besteht aber darin, dass die Gedanken die Methode (ß) brauchen, um mit ihrer Hilfe „nicht offensichtliche“ Ideen in Betracht zu ziehen. In der TRIZ ist eine solche Methode das Funktional Ideale Modellieren (s. Abschn. 9.2). Wenn wir weiterhin mit Worten und Gedanken spielen und zu noch phantastischeren Bildern übergehen wollen, können wir sagen, dass die Methode des funktional idealen Modellierens die Barriere durchsichtig macht! Das heißt, durch sie hindurch wird etwas sichtbar. In Abb. 18.3 finden Sie eine Gegenüberstellung des „gewöhnlichen“ Denkens mit dem TRIZ-Denken75: „Das gewöhnliche Denken wird vom Bewusstsein kontrolliert, es schützt uns vor unlogischen Handlungsweisen, beeinflusst uns mit einer Unmenge von Verboten. Jedoch ist jede Erfindung eben die Überwindung gewöhnlicher Vorstellungen über das Mögliche und Unmögliche.“ Die Fähigkeiten für das funktional-ideale Modellieren müssen auch trainiert werden. Auch z.B. durch das Lesen von Sciencefiction-Literatur, Kriminalromanen, Anekdoten, sogar Märchen, durch das Ansehen von humoristischen und phantastischen Zeichnungen, Werken der Malerei, durch Hören ungewöhnlicher musikalischer Werke. G. Altschuller schrieb: gute Ergebnisse können nur bei einer hohen Kultur des Denkens erzielt werden. Ein Wissenschaftler, Konstrukteur, Erfinder braucht eine starke und lebendige Phantasie. Leider ist in vielen Fällen das Potential an Phantasie sehr gering. Es kann sich zeigen, dass die Anwendung von Gesetzen, Verfahren, Standards dem „Flug der Phantasie“ diametral entgegenstehen. Der gesamte Apparat der TRIZ ist genau darauf ausgerichtet, eine starke und gut steuerbare Phantasie zu fördern. Außer der Konzeption des funktional idealen Modellierens, wurde in der TRIZ eine Reihe „nicht-algorithmischer“ Methoden für die Überwindung psychologischer Trägheit entwickelt: - „Phantogramme“, - Modellieren nach den Koordinaten „Größe – Zeit – Kosten“ (spezielle verkürzte Form des “Phantogramms“), - das Modell „War – Wurde“, - „Modellieren mit kleinen Figürchen“, - Empfehlungen für die Vermeidung logischer und psychologischer Fehler. Wenden wir uns jetzt diesen Methoden zu. Die ersten zwei Methoden werden für die Beseitigung psychologischer Trägheit in den Anfangsstadien der Lösung von 75
J. Salamatow: Wie wird man Erfinder: 50 Stunden Kreativität. Ein Buch für Lehrer. – Moskau, 1990 (russ.)
278
Erfindungskunst
Aufgaben, bei deren Erstanalyse gebraucht. Zwei der folgenden Methoden sind effektive „nicht-algorithmische“ Instrumente für das Generieren neuer Ideen. ʋ
Traditionelles Denken
TRIZ-Denken
1
Tendenz zur Erleichterung, Ver- Tendenz zur Verschärfung, Verkomplizierung der einfachung der Anforderungen Anforderungen an die Aufgabe an die Aufgabe
2
Tendenz, von „unwahrscheinli- Bestreben, Wege zu gehen, die die „Unwahrchen“ Wegen abzuweichen scheinlichkeit“ erhöhen
3
Visuelle Vorstellung vom Ob- Visuelle Vorstellung vom Objekt: genau und an jekt: ungenau und an den Proto- das ideale Endresultat gebunden typ des Objekts gebunden
4
Vorstellung vom Objekt „flach“
5
Vorstellung vom Objekt „Momentaufnahme“
6
Vorstellung vom Objekt „fest“, Vorstellung vom Objekt „plastisch“, auch stark in nur schwer veränderbar Raum und Zeit veränderbar
7
Das Gedächtnis bietet nahe (und Das Gedächtnis bietet entfernte (und deshalb stardeshalb schwache) Analogien ke) Analogien, wobei sich der Informationsbestand ständig durch neue Prinzipien und Verfahren usw. vervollständigt
8
Mit den Jahren verstärkt sich die Die „Barriere der Spezialisierung“ wird sukzessive „Barriere der Spezialisierung“ zerstört
9
Grad der Steuerbarkeit des Den- Das Denken wird immer mehr steuerbar: der Erkens steigt nicht finder sieht irgendwie den Gedankenweg von der Seite, er steuert den Prozess des Denkens leicht (z.B., er kann sich leicht von sich „aufdrängenden“ Varianten trennen)
Vorstellung vom Objekt „im Volumen“: es werden gleichzeitig nicht nur das Objekt, sondern auch seine Subsysteme und auch Supersysteme, zu denen es gehört, betrachtet
als Das Objekt wird in seiner historischen Bewegung betrachtet: wie es gestern war, wie es heute ist und wie es morgen werden wird (wenn die Entwicklungslinie beibehalten wird)
Abb. 18.3. Vergleich des traditionellen und TRIZ-Denkens
18.2 Die Modelle „Phantogramm“ und „War – Wurde“ Das erste Modell wird hauptsächlich für die „Reinigung“ des Denkens von negativen stereotypen Vorstellungen über die ursprüngliche Aufgabe und die Ziele ihrer Lösung verwendet. Das Ziel – erkennen (nicht streng genommen!) der Besonderheiten dieses Objekts, Grenzen der Möglichkeiten seiner Transformationen. Ein „Phantogramm“ ist eine Tabelle (Abb. 18.4), die dabei hilft, ein ExpressTraining oder eine Express-Stimulierung der Vorstellungskraft durchzuführen, unmittelbar am Beispiel des Objekts des zu lösenden Problems. Die Idee des
18 Pragmatismus der Phantasie
279
Energetik
Stoff (chem. oder phys. Eigenschaften)
Konstruktion (des Subsystems)
Verfahren der Lageveränderung
Reproduktion (Anfertigung)
Ziel der Existenz
Verfahren
Supersystem
Objekt
Existenzsphäre
Veränderung:
Entwicklungsrichtung
Phantogramms entstand bei G. Altschuller während des Studiums hunderter Sciencefiction-Werke. Er ging an diese Werke genauso heran, als würde er Erfindungen nach ihrem Nutzen und ihrer Neuartigkeit bewerten. Im Bereich der Sciencefiction gilt im Prinzip die Regel, nur Werke mit neuen originellen Ideen phantastischen Inhalts zu schaffen. Das erfordert ungewöhnliche Vorstellungskraft und großes Wissen. Gleichzeitig aber ist es zum Trainieren für die Teilnehmer sehr nützlich, selbst zu versuchen, neue Objekte und Prozesse zu entwickeln und dabei „Phantogramme“ zu verwenden.
Entgegengesetzt machen vergrößern – verkleinern Dynamisierung – Statik Beschleunigen – verlangsamen Universalität – Spezialisierung Zerteilen – Verbinden Zeitweise – Ununterbrochen Eingliedern – Ausgliedern Zeitverschiebung Belebung Änderung der Beziehungen Veränderung der Naturgesetze Abb. 18.4. „Phantogramm“
„Viele Leute betrachten Sciencefiction-Literatur nur als unterhaltsamen Lesestoff, als Literatur zweiter Sorte... Keine vergleichende Tabelle von Vorhersagen und Stufen ihrer realen Umsetzung, die anhand einer Bewertung von Wissenschaftlern aufgestellt wurde, hat eine solch hohe Übereinstimmung, wie sie bei der Wertung der Ideen von Sciencefictionschriftstellern zu finden ist. Sciencefictionschriftsteller blicken aber in die Zukunft voraus, um Dutzende und Hunderte von Jahren.
280
Erfindungskunst
So z.B.: die Utopie von Odojewski «Das Jahr 4338. Petersburger Briefe» (1840) – Flugzeuge, elektrisch betriebene Züge, synthetische Stoffe, sich selbst bewegende Wege; der Roman von A. Bogdanow «Roter Stern» (1908) – atombetriebene Motoren, Automaten-Werke; die Utopie von W. Nikolski «In Tausend Jahren» (1926) – die direkte Voraussage, dass die erste Atombombe 1945 explodieren wird; der Roman des ersten amerikanischen Sciencefictionschriftstellers H. Gernsbeck «Ralf 124ɋ41+» (1911) – Bildtelefon, Hypnopädie, Mikrofilme, Radiolokation, Raketen76.“ Jules Verne77 traf einst folgende Aussage: „Alles, was sich ein Mensch in seiner Phantasie vorstellen kann, kann ein anderer in die Realität umsetzen.“ G. Altschuller [2] stellt eine Tabelle (Abb. 18.5) auf, die beweist, dass die „Geschichte der Sciencefiction deutliche Beispiele für die Umwandlung des «Unmöglichen» in das «Mögliche» liefert“.
Autor
Gesamt zahl neuer Ideen
Schicksal phantastischer Ideen Verwirklicht
prinzipielle Möglichkeit bestätigt
erwiesen sich als fehlerhaft oder nicht realisierbar
Anzahl
%
Anzahl
%
Anzahl
%
J. Verne
108
64
59
34
32
10
9
H. Wells
86
57
66
20
23
9
11
A. Beljajew78
50
21
42
26
52
3
6
Abb. 18.5. „Erfolgstabelle“ der Voraussagen von Sciencefictionschriftstellern
Die wohl erstaunlichsten wissenschaftlich-technischen Vorahnungen hatte der Begründer der Raketentechnik und Raumfahrt Konstantin Ziolkowski79. Hier einige seiner umgesetzten und aber auch völlig wahrscheinlichen Ideen: 1. Raketenflugzeug mit Flügeln und üblichen Steuerinstrumenten. 2. Verkleinerung der Flügel eines Flugzeugs bei gleichzeitiger Vergrößerung der Zugkraft der Motoren und der Fluggeschwindigkeit. 3. Vordringen in entfernte Schichten der Atmosphäre, Flüge über die Grenzen der Atmosphäre hinaus und Starts im Gleitflug. 4. Einrichten mobiler Stationen außerhalb der Atmosphäre (künstliche Erdtrabanten). 5. Landung auf dem Mond. 6. Skaphander, unter anderem mit Flüssigkeitsfüllung. 76
Nach dem oben erwähnten Werk von J. Salamatow Jules Verne (1828-1905) – bedeutender französischer Schriftsteller, Begründer des Genres Sciencefiction 78 Alexander Beljajew (1884-1942) – einer der ersten russischen SciencefictionSchriftsteller 79 Konstantin Ziolkowski (1857 - 1935) – führender russischer Wissenschaftler, Autodidakt, Begründer der Theorie der Raketenbewegung, der Bewegung von Sputniks und Mond- und anderer interplanetarer Flüge 77
18 Pragmatismus der Phantasie
281
7. Verwendung der Sonnenenergie durch Astronauten zunächst für Lebenszwecke der Stationen, und später für die Fortbewegung im Weltall. 8. Anstieg der Anzahl von Stationen im Weltraum, Entstehen einer Industrie im Weltraum (s. auch ein Projekt von A. Yunitzki, Bsp. 124). Jedoch kann man aber auch nicht den Mechanismus des Einwirkens des Phantastischen auf die Wissenschaft auf die Formel reduzieren „ein Phantast hat es erdacht – ein Wissenschaftler hat es umgesetzt“. Ein Teil der Prognosen erweist sich auch als falsch oder sozial nicht vertretbar. Ein spezieller Teil des „Phantogramms“ wurde zu einem selbständigen TRIZInstrument in Form des Modells „Dimension – Zeit – Kosten“ (kurz, das DZKModell). Wie das „Phantogramm“ ist auch das DZK-Modell für das Aufbrechen gewohnter Vorstellungen über das Objekt bestimmt. Somit ist der Zweck dieses Modells, „Gewohntes“ in „Ungewohntes“ umzuwandeln. Bei der Anwendung dieses Modells werden sukzessive die Veränderungen in den Bedingungen der Aufgabe betrachtet, und das in Abhängigkeit von der Veränderung dreier Parameter: geometrische Dimensionen – D (im Allgemeinen kann das aber auch Veränderungen der „Dimensionen“ verschiedenster Parameter bedeuten wie z.B. Temperatur, Festigkeit, Helligkeit u.ä.), Zeit – Z, Kosten – K. Für die DZK-Modellierung wird eine spezielle Tabelle (Abb. 18.6) der klassischen Beispiele verwendet, die bereits von G. Altschuller entwickelt wurde. Grenzwert
0 D
Realer Wert
Länge des Details 1 m
Länge des Def tails !100km
0 Z f 0 K f
Wie kann die Lösung aussehen
Mögliches Lösungsprinzip
Die Menge des verlorenen Stoffes Irgendwelche Mikrozusätze, die bei geringstem ist gering. Sie muss leicht aufAuslaufen aufgedeckt findbar gemacht werden. werden können
Aufdecken aus der Entfernung – Radiolokation, optische Lokation, Themolokation. Das Auffinden Mechanische und chemische Vermuss in 0,001 s fahren kommen nicht in Frage; erfolgen was bleibt sind elektromagnetische (einschl. optische) Das Auffinden Die abfließende Flüssigkeit reamuß in 10 Jahren giert mit dem Material der Röhre erfolgen und verändert ihr Aussehen Die Kosten für Es ist nötig, dass die Flüssigkeit das Auffinden selbst über sich gut sind = 0 „kommuniziert“ Der Flüssigkeit etwas teures zu100000 $ setzen, was jedoch leicht auffindbar ist
Lokation in gewöhnlichen oder infraroten Strahlen, Radiolokation Elektromagnetische Strahlung
als Indikator dient das Material der Röhre Geruch, Farbe, Quantität
Zusätze in Mikrodosen von leicht auffindbaren Stoffen
Abb. 18.6. Tabelle und Beispiele für die DZK-Modellierung (nach G. Altschuller)
Jeder Parameter muss in einem maximal großen Bereich verändert werden, dessen Grenze nur der Verlust des physikalischen Sinns der Aufgabe sein kann. Die
282
Erfindungskunst
Werte der Parameter müssen stufenweise so verändert werden, dass man den physikalischen Inhalt der Aufgabe unter neuen Bedingungen verstehen und kontrollieren kann. Bsp. 122. DZK-Modellierung. Nehmen wir an, man will eine Aufgabe lösen, die zum Inhalt hat, undichte Stellen und das Herausfließen der Arbeitsflüssigkeit aus Kühlschrankaggregaten aufzudecken. Die Ergebnisse der DZK-Modellierung finden Sie in der Abb. 18.6. Bei der DZK-Modellierung können die Antworten äußerst verschieden sein. Das hängt von der Phantasie, dem Wissen, der Erfahrung und individuellen Qualitäten des Menschen ab. Es darf nur nicht das Ziel der ursprünglichen Aufgabe verändert werden! Man darf z.B. nicht in der letzten Zeile schreiben: es muss die Qualität der Ausfertigung der Aggregate verbessert werden – obwohl es in der Praxis natürlich sinnvoller ist, dem Entstehen undichter Stellen vorzubeugen, als im Nachhinein dagegen zu kämpfen. Und noch kurz zu den Kosten: eine Veränderung dieses Parameters in Richtung Erhöhung bedeutet nur, dass zugelassen wird, dass es eine hypothetische Möglichkeit gibt, für eine Veränderung, egal wie hoch zu bezahlen. Beantwortet werden muss folgende Frage: was ändert sich dadurch im Verhältnis zum Problem? Wie kann es dann gelöst werden und warum? Die DZK-Modellierung wird oft von Illustrationen begleitet. Dabei wird empfohlen, Zeichnungen zu machen, die so genau wie möglich sind und in der es keine Nachlässigkeiten geben darf. Eine schlechte Zeichnung zeugt in der Regel davon, dass die Aufgabe schlecht verstanden wurde. Dabei beträgt die Mindestanzahl zwei Zeichnungen „War“ (oder „Ist“) und eine Zeichnung „Wurde“ (oder „Soll sein“). Manchmal ist es günstig, beide Zeichnungen im gleichen Maßstab anzufertigen, sie dann zu vergleichen und alle Unterschiede farblich hervorzuheben. Jetzt kommen wir zu zwei Beispielen. Bsp. 123. Ring über dem Erdball. Hierbei handelt es sich auch um eine eher unterhaltsame Aufgabe für das Training. Sie kann ganz einfach formuliert werden und hat auch eine einfache Antwort. Uns aber geht es darum, dass beim Training diese Aufgabe in 20 Sekunden gelöst werden muss! Nehmen Sie sich eine Uhr mit Sekundenzeiger, und lesen Sie erst danach die Bedingungen der Aufgabe. Es ist klar, dass unsere Möglichkeiten der Aufnahme und der gedanklichen Bewertung der Bedingungen einer Aufgabe auch nicht konstant sind und von vielen Faktoren abhängen. Speziell, wenn im Seminar gleich gesagt wird, dass eine recht komplizierte Aufgabe gelöst werden soll, und dann die Zeit dafür auf 20 Sekunden eingeschränkt wird, sinkt der prozentuale Anteil richtig und rechtzeitig gelöster Aufgaben drastisch! Und so sieht die Aufgabe aus: gehen wir davon aus, dass um einen „idealrunden“ Erdball ein dünner beweglicher Ring gelegt wurde. Sie sollen ihn so bewegen, dass, auf der einen Seite ein Abstand zwischen dem Ring und der Erdoberfläche von ca. 0,5 m entsteht, so dass Sie hindurch kriechen könnten. Um wie viel Kilometer muss der Umfang des Rings vergrößert werden? Bsp. 124. Kosmische Transport- und Industriesysteme von Yunitzki. Ein ausgezeichnetes Beispiel für die DZK-Modellierung sind die Untersuchungen zu
18 Pragmatismus der Phantasie
283
noch einer unglaublichen, jedoch den Gesetzen der Physik nicht widersprechenden Erfindung des uns bereits bekannten Erfinders Anatolij Yunitzki (s. Abschn. 15.3). Diesmal hat er – ein Rad erfunden! Aber nicht irgendein Rad, sondern ein Rad so groß wie der Erdball! Ja er hat den Vorschlag gemacht, um den Äquator der Erde einen Ring zu legen, der dann zu einem Weltraumverkehrsmittel werden kann: in Abb. 18.7a „War = Ring“, in Abb. 18.7b „Wurde = KTS (Kosmisches Transportsystem)“. Das Phantastische dieses Projekts übertrifft sogar die Hirngespinste von Baron Münchhausen, der sich zusammen mit seinem Pferd am eigenen Haarschopf aus dem Sumpf zog! Aber das gleiche trifft für das KTS zu – das KTS transportiert sich selbst ins Weltall! 1
1
a) Abb. 18.7. Kosmisches Transportsystem von Yunitzki
2
3 4
b) Ansicht von einem Punkt über dem Südpol
Der Ring 1 (Abb. 18.7.a) stellt den Rotor eines Motors mit magnetischer Aufhängung dar. Der Stator des Motors ist in eine Hülle eingebaut, in der sich der Rotor befindet, und umfasst auch die Erdkugel. Der Rotor hängt in der Hülle an einer magnetischen Aufhängung und berührt mit keinem seiner Elemente die Hülle. Die Größe des Rotors kann 20-40 cm betragen. Innerhalb des Rotors können Materialien für den Bau von Anlagen im Weltraum oder Rohstoffe für die Industrie im Weltraum untergebracht werden. Nach einer Beschleunigung des Rotors auf einen Wert, der höher liegt als die erste kosmische Geschwindigkeit, bis auf 10 km/s, wird er schwerelos! Dann wird die Magnetaufhängung abgeschaltet, und der Rotor steigt ins All auf! In einer Höhe von 10 km (Position 2 in der Abb. 18.7.b) wird die Hülle abgeworfen, die dann an Fallschirmen auf die Erde herabsinkt. Weiter steigt dann der Rotor in die vorgegebene Höhe auf. Z.B. Position 3 in der Abb. 18.7.b, hier kann die Höhe etwa 100 km betragen, und in der Position 4 – 1000 km. Der Rotor ist so gestaltet, dass er aus Sektionen besteht, die mit teleskopischen Verbindungen zusammengefügt sind. Deshalb kann er sich leicht im Durchmesser und dementsprechend im Umfang vergrößern. Bei einem Durchmesser der Erde am Äquator von 12756 km entspricht der Umfang des Äquators ca. 40000 km. So groß ist auch der Umfang des Rotors am Start. In einer Höhe von 100 km vergrößert sich sein Umfang nur um 628 km oder um 1,6 %, jedoch in einer Höhe von 1000 km – um 6280 km oder um 15,7 %. (Vergleichen Sie das bitte mit den Parametern in der vorigen Aufgabe, und berücksichtigen Sie dabei, dass dort der Ring mit der einen Seite an der Erde anliegt und auf der anderen absteht!)
284
Erfindungskunst
Bei Bremsen des Rotors, beginnt er sich zusammenzuziehen und kann herab auf die Erde gelassen werden! Dabei ist eine zusätzliche Rückgewinnung (Rekuperation) einer großen Energiemenge möglich! Wenn im Weltraum nur 1 % der heute produzierten Baustoffe oder 50 % der heute erzeugten Energie produziert würden, betrüge der geokosmische Lastentransport mindestens 10 Millionen Tonnen pro Jahr. Um solche Lasten bis zum Jahr 2020 mit Raumtransportern vom Typ Shuttle in die Erdumlaufbahn zu bringen, bei 60 Starts pro Jahr, hätte man mit diesem Programm früher als mit dem Bau der Cheopspyramide im Alten Ägypten beginnen müssen! Und solche Mengen von Lasten in einem Jahr dorthin zu transportieren, ist völlig unrealistisch! Hinzu kommt, dass heute der Raketentransport schon an seine potentiellen Grenzen der Entwicklung stößt. Sowohl aus ökonomischer und technischer als auch aus ökologischer Sicht. So wurde berechnet, dass allein 100 Shuttlestarts hintereinander zu einer katastrophalen und irreversiblen Zerstörung der Ozonschicht der Erde durch die Verbrennungsprodukte des Raketentreibstoffs führen würden. Das KTS ist in der Lage 1 bis 5 Millionen Tonnen Nutzlast mit einem Flug in den Weltraum und aus dem industriellen Ring im All auf die Erde zu befördern! Im Jahr können Dutzende von Starts und Landungen durchgeführt werden, die praktisch für die Natur völlig unschädlich sind! Die Selbstkosten des Lastentransports mit Hilfe des KTS betragen weniger als ein Dollar pro Kilogramm, was im Vergleich zum Raketentransport Tausend mal weniger ist! In der Tabelle Abb. 18.8 finden Sie eine verkürzte Übersicht von Erfindungsverfahren, die beim KTS von Yunitzki umgesetzt wurden. Zu Beginn des III. Jahrtausends ist die Nutzung eines solchen kosmischen Transportsystems von A. Yunitzki für die Schaffung einer geokosmischen industriellen Zivilisation – die praktischste aller noch so phantastischen Ideen. Als Abschluss noch ein optimistisches Geleitwort von G. Altschuller: „Die Aneignung der Technik des Phantasierens hat absolut nichts mit dem Auswendiglernen von schablonenartigen Texten zu tun. Ein und dieselbe Übung kann auf verschiedene Art und Weise in Abhängigkeit von der Persönlichkeit des konkreten Menschen durchgeführt werden. Es ist hier wie in der Musik, technische Verfahren helfen individuelle Qualitäten aufzudecken, und interessanterweise bereitet manchmal eine Übung genauso viel ästhetisches Vergnügen, wie ein gut gespieltes Musikstück.“ 18.3 Modellieren mit kleinen Figürchen Das erste Beispiel der Anwendung der TRIZ bei Altschuller selbst, für ihre eigene Weiterentwicklung, war wahrscheinlich die Entwicklung der Methode des Modellierens mit kleinen Figürchen (MKF). G. Altschuller untersuchte die Widersprüche des Verfahrens Empathie (sich selbst in die Rolle des zu verändernden Objekts versetzen) aus der Synektik Gordons: ihre starke Seite ist das Einbeziehen der Phantasie und Sinnesorgane für die Stimulation der Vorstellungskraft, ihre schwache Seite ist die prinzipielle Beschränktheit der Methode bei bestimmten oft vorkommenden Transformationen, wie Zerteilen des Objekts, Zerschneiden,
18 Pragmatismus der Phantasie
285
Auflösen, Verdrehen, Sprengen oder Kondensieren, Zusammenpressen, Erhitzen u.ä. Und so soll die Empathie da sein, sie soll aber auch nicht da sein! Eine ideale Lösung ist oft das Prinzip des Kopierens! So können doch die Aktionen und Wirkungen modelliert werden, jedoch nicht mit sich selbst als Erfinder, sondern mit einem für die Situation erdachten Modell-Figürchen. Oder besser noch mit großen Gruppen kleiner Figürchen, in jeder beliebigen Menge mit allen möglichen unerwarteten und phantastischen Eigenschaften! A-Navigatoren
Anwendung
03 Zerteilen
Aufteilen des Rotors in Sektionen
04 Ersatz der mechanischen Umgebung
Verwendung magnetischer Aufhängungen und linearer Elektromotoren
05 Ausgliedern
Für die Entwicklung des KɌS wurde die einzig nötige Eigenschaft herausgestellt – ein sich selbst anhebender Rotor
07 Dynamisieren
Der Körper des Rotors ändert seine Größe
11 Entgegengesetzt
Nicht verringern, sondern millionenfach (!) die Nutzlast vergrößern, die ins All transportiert wird
16 Partielle oder überschüssige Wirkung
Wenn es nicht möglich ist, pro Jahr 100 Raumtransporter zu starten, kann man dann nicht die notwendige Last mit nur einem Flug transportieren?!
18 Vermittler
Der Rotor ist der Vermittler, der die Last im KTS transportiert!
19 Übergang in eine andere Dimension
Das KTS bewegt sich horizontal, und dreht sich dabei im Kreis, während es sich in radialer Richtung verändert (der Rotor weitet sich aus oder zieht sich zusammen)
21 Schaden in Nutzen umwandeln
Das große Gewicht des KTS wurde zu seiner nützlichen Fracht!
26 Anwendung von Phasenübergängen
Speziell: Veränderung des Gewichts des Rotors bei Beschleunigung auf die erste kosmische Geschwindigkeit!
29 Selbstbedienung
Das KTS ist das einzige sich selbst tragende Transportmittel!
32 Gegengewicht
Das Gewicht des Rotors wird durch die Zentrifugalkräfte bei seiner Beschleunigung kompensiert!
34 Matrjoschka
Das KTS ist eine in verschiedenen Ebenen ineinander gelegte Konstruktion: Last–Rotor–Hülle–Stator (Anlegemechanismus)
37 Äquivalentes Potential
Das Installieren des KTS mit äquivalentem Potential auf der Breite des Äquators (im Unterschied zum vertikalen Raketenstart)
Abb. 18.8. Re-Inventing des kosmischen Transportsystems von A. Yunitzki
Als Analogien für diese Idee können bekannte Beispiele aus der Geschichte kreativer Lösungen dienen. So stellte sich der Chemiker Kekulé80 die Strukturformel 80
Kekulé von Stradonitz, F.A. (1829-1896) – deutscher Chemiker, Entdecker der Benzolformel
286
Erfindungskunst
der Moleküle des Benzols (C6H6) zunächst als einen Ring von Affen vor, die an die Gitter ihres Käfigs fassen und sich gleichzeitig an der Vorder- und Hinterpfote festhalten. Bei einem Gedankeninstrument von Maxwell81 bestand die Forderung, aus einem Gefäß mit Gas, Teilchen mit größerer Energie in ein anderes Gefäß zu leiten. Maxwell verband beide Gefäße gedanklich mit einer Röhre, in der ein „Türchen“ ist, welches „kleine Dämonen“ vor den schnellen hochenergetischen Teilchen öffnen und vor den langsamen schließen. Die Historiker der Kreativität führten die Geschichte von Kekulé in der Regel nur an, um die Rolle des Zufalls bei Entdeckungen oder Erfindungen zu illustrieren. Aus den Erfahrungen von Maxwell zog man ohnehin nur den Schluss, dass Vorstellungskraft für einen Wissenschaftler äußerst wichtig ist. Aber erst G. Altschuller wandelte diese Zufälle in eine Methode um! Er bezeichnete sie als: Methode des Modellierens mit kleinen Menschlein. Vor vielen Jahren schon habe ich das Bild der kleinen „Menschlein“ in ein mehr schematisches und emotional neutraleres umgewandelt – „Figürchen“. Der Grund dafür ist der, dass in bestimmten Situationen ein Teil oder gar alle „Menschlein“ zerstört werden müssen. Was zu psychologischen Unannehmlichkeiten führt, und dabei stört, eine Aufgabe kreativ zu lösen. Bei der Vorstellung von „Figürchen“ fehlt dieses unangenehme Gefühl. „Figürchen“ können all unsere Phantasien erfüllen, sie können aktiv sein, bleiben dabei aber absolut abstrakte Objekte, die Ähnlichkeit mit Schachfiguren oder Karikaturen haben. „Figürchen“ leben nicht und haben keine Emotionen. Sie sind Symbole wie Buchstaben, Kommata, Punkte, Klammern – die wenn es sein muss gelöscht werden können und durch andere Symbole ersetzt werden können. Es müssen wirklich situationsbedingte „Figürchen“ gewählt werden, und keine Moleküle oder Mikroben. Dabei geht es darum, dass für das gedankliche Modellieren Teilchen im Team „sehen“, „verstehen“ und „handeln“ können! Bei der Anwendung der Methode MKF verwendet der Erfinder auch Empathie, jedoch nicht selbst! Das erledigen für ihn kleine Figürchen. Der Erfinder ist dabei nur ein Puppenführer oder Zeichner, der diese Figuren steuert und selbst ihre Handlungen verfolgt. So wurden die starken Seiten der Empathie beibehalten, aber ihre Mängel beseitigt. Die Regeln für das MKF finden Sie in Tabelle Abb. 18.9. Eines der ersten Beispiele zur Demonstration der MKF war folgendes. Bsp. 125. Anpassbare Polierscheibe. Für das Polieren komplizierter Oberflächen lassen sich nur schwer übliche Polierscheiben verwenden, da bei einer großen Dicke der Scheibe, sie nicht in schmale Rinnen im Erzeugnisses gelangen kann, bei einer schmalen Scheibe sinkt die Produktivität des Polierens. Die Anwendung der MKF kann folgendermaßen beschrieben werden. Schritt 1. Nach den Regeln der TRIZ muss das Instrument verändert werden. Stellen wir uns eine Polierscheibe vor, die aus zwei Teilen besteht, von denen der eine, einer Transformation unterzogen werden muss. Das ist offenbar der, welcher mit dem Erzeugnis in Kontakt kommt (links in Abb. 18.10.a).
81
Maxwell, J.C. (1831-1879) – schottischer Physiker, Begründer der theoretischen Grundlagen elektromagnetischer Felder
18 Pragmatismus der Phantasie
287
Schritte und Gedankenoperationen 1 Den Teil des Objekts herausstellen, der die geforderten widersprüchlichen An-
forderungen nicht erfüllen kann. Diesen Teil als eine Vielzahl kleiner Figürchen darstellen. 2 Diese Vielzahl von kleinen Figürchen in Gruppen aufteilen, die entsprechend
der Situation agieren. Bei diesem Schritt sollte man die Situation aufzeichnen, wie sie „Ist“ und „War“. 3 Die Ausgangssituation analysieren und das Modell (des Objekts) so umbauen, dass es der geforderten idealen Funktion entspricht, und die ursprünglichen Widersprüche beseitigt sind. Bei diesem Schritt sollte man die Situation aufzeichnen, wie sie „Wurde“ oder „Sein soll“. 4 Zur technischen Interpretation übergehen und Mittel zur Realisierung suchen. Abb. 18.9. Methode des Modellierens mit kleinen Figürchen
a) War
b) Soll sein Abb. 18.10. Beispiel für die Anwendung des MKF
Schritt 2. Zeichnen wir jetzt eine Vielzahl von Figürchen, die sich bemühen, die zylindrische Oberfläche der Scheibe zu verändern (rechts in Abb. 18.10a)! Besser noch, es könnten doch die einen Figürchen selbst das Werkstück polieren! Und die anderen könnten die, welche polieren, festhalten. Schritt 3. Angenommen, wir haben es mit einem Werkstück zu tun, das eine komplizierte Form hat (Abb. 18.10.b). Jetzt drücken sich beim Drehen der Scheibe die Figürchen an das Werkstück, aber nur dort, wo die Scheibe das Werkstück berührt. Nach Kontakt mit dem Werkstück versammeln sich die Figürchen in einer Gruppe und geben der Scheibe wieder die ursprüngliche Form eines Drehkörpers. Hier entspricht alles dem maximalen idealen Modell: die Scheibe selbst nimmt die Form des Werkstücks an! Schritt 4. Auf diese Weise wird es schon deutlicher, dass die Scheibe so aufgebaut sein muss, dass ihr äußerer Teil dynamisiert sein muss, um sich so dem Profil der Oberfläche des Werkstücks anzupassen. Die erste technische Möglichkeit ist eine aus mehreren Schichten zusammengesetzte Scheibe. Diese Idee scheint wegen ihrer Kompliziertheit, eben dem ungleichmäßigen Verschleiß der Schichten ziemlich zweifelhaft, und es könnte sein, dass die gewünschten Ergebnisse nicht
288
Erfindungskunst
erzielt werden. Die zweite Möglichkeit ist: der äußere dynamisierte Teil könnte aus einem magnetisch-abrasiven Pulver bestehen und der Kern der Scheibe aus einem Magneten. Dann sind die magnetisch-abrasiven Teilchen, wie auch die kleinen Figürchen, beweglich und können gemeinsam die Form des Werkstücks annehmen. Einzeln aber sind sie hart und können das Werkstück polieren. In den Bereichen, die nicht aktiv sind, nehmen sie während des Drehens der Scheibe sofort die Position ein, die der Struktur des inneren Magnetfeldes entsprechen, das sie hält. Das MKF verringert die Trägheit, die mit der visuellen Vorstellung und Wahrnehmung von Objekten verbunden ist. Deshalb ist es prinzipiell wichtig, das Objekt in ausreichender Größe zu zeichnen. So können die Kräfte, welche im Objekt modelliert werden, durch große Gruppen von Figürchen dargestellt werden. Sie werden nicht durch Linien einer kleinen Zeichnung eingeengt und können so auf ideale Weise agieren.
19 Integration der TRIZ in die professionelle Tätigkeit 19.1 Motivation und Persönlichkeitsentwicklung Eine der wohl peinlichsten Erscheinungen der Gegenwart (zu Beginn des III. Jahrtausends!) ist die recht weit verbreitete Einstellung gegenüber Erfindern als Personen, die gelinde gesagt ein wenig merkwürdig sind. Ein Mensch, der eine Entdeckung oder Erfindung gemacht hat, und natürlich seine Umwelt darüber informieren möchte, bekommt schnell das Etikett eines Sonderlings, Häretikers, oder psychisch Gestörten aufgedrückt. Je größer und „ketzerischer“ eine Erfindung ist, desto wahrscheinlicher ist, dass ihr Autor verlacht oder sogar abgelehnt wird. Die Einstellung gegenüber einer Erfindung durchläuft noch immer dieselben traurigen Stadien: - im ersten Stadium sind solche Ausdrücke üblich: „Das kann gar nicht sein!“, „Das ist ja völlig absurd!“, „Das ist eine falsche Theorie“ u.ä..; - im zweiten Stadium hört man dann tiefgründige Aussagen wie: „Es hat ja schon irgendwas, aber wer braucht das?“, „Das lässt sich nicht realisieren“ oder „Das kommt zu früh“; - im dritten Stadium werden dieselben Schwätzer aller Sorten und Schläge so laut wie nur möglich behaupten: „Was ist denn hierbei neu – das ist doch allgemein bekannt!“, „Ich habe darin immer eine Perspektive gesehen!“, „Das ist nicht nur die Idee von X! Wir alle waren daran beteiligt...“ usw. In der TRIZ-Schule unterscheidet man drei Typen kreativen Handelns: 1. Anwendung einer bekannten Idee für einen bekannten Zweck; 2. Entwicklung einer neuen Idee für ein bekanntes Ziel; 3. Entwicklung einer neuen Idee und einer Idee, wie sie erreicht werden kann. Sehen Sie sich noch einmal die Tabelle Niveaus des Erfindens (Abb. 3.2) an. Kreatives Handeln des ersten Typs umfasst die Lösung des 1. und 2. Niveaus; kreatives Handeln des zweiten Typs – Lösungen des 3. und 4. Niveaus.
19 Integration der TRIZ in die professionelle Tätigkeit
289
Der dritte Typ des kreativen Handelns bezieht sich auf das 5. Niveau, und auch auf das in der Tabelle nicht erwähnte 6. Niveau, als System von Entdeckungen (Erfindungen) des 5. Niveaus. Die Stufen der Kreativität unterschieden sich jedoch nicht nur durch das Niveau der Aufgabenstellung und der Lösung des Problems, sondern auch durch Stimuli, der Motivation der Kreativität selbst. Aber auch wie oben erwähnt, von der charakteristischen negativen Reaktion der Umwelt auf erfinderische Menschen und deren Ergebnisse. Zu viele Erfinder und Entdecker, die Meilensteine in der Geschichte der Menschheit setzten, hatten oft ein dramatisches und tragisches Schicksal. Unter der Leitung des Verfassers der TRIZ Genrich Altschuller wurden Untersuchungen Tausender Schicksale führender schöpferischer Persönlichkeiten durchgeführt (hervorzuheben sei, dass dazu keine „erfinderischen“ Verbrecher, amoralische und andere asoziale Personen gezählt wurden). Diese Untersuchungen führten zur Ausarbeitung theoretischer Modelle [6], auf deren Grundlage eine kreative Persönlichkeit sich negativen Einwirkungen, verursacht durch äußere Umstände, entgegenstellen kann. Jedoch wurden bereits 10 Jahre vor Veröffentlichung des erwähnten Werks von Altschuller und seinen Anhängern kurze Prinzipien formuliert. Diese Prinzipien können einer schöpferischen Persönlichkeit helfen, bewusst den Kampf gegen alte Vorstellungen aufzunehmen und die Fähigkeit zu erlernen, wie man beim Boxen sagt, „den Schlag abzufangen“. Der „Kreative Komplex „ umfasst sechs notwendige Eigenschaften. 1. Man braucht ein würdiges Ziel – ein neues noch nicht erreichtes, bedeutendes, gesellschaftlich nützliches. Für das Niveau der Kreativität des dritten Typs kann man von der Auswahl eines Ziels im Sinne des gesellschaftlichen Fortschritts, einem Ziel im Sinne der humanistischen Entwicklung der Zivilisation sprechen (s. Abschn. Strategie und Taktik des Erfindens). 2. Man braucht einen Komplex von realen Arbeitsplänen, um ein Ziel zu erreichen und eine regelmäßige Selbstkontrolle der Erfüllung dieser Pläne. Das Ziel bleibt ein nebulöser Traum, wenn nicht ein ganzes Paket von Plänen ausgearbeitet wird. Für z.B. 10 Jahre, 5 Jahre oder ein Jahr. Und auch dann, wenn die Erfüllung dieser Pläne nicht jeden Monat oder sogar jeden Tag hinterfragt wird. In den meisten Fällen beinhalten die Pläne auch den Erwerb neuen Wissens und neuer Fähigkeiten, so z.B. Fremdsprachenkenntnisse, um notwendige Arbeiten im Original lesen zu können. 3. Hoher Arbeitseinsatz bei der Erfüllung der aufgestellten Pläne. Sammeln und Systematisierung von Hilfsinformationen. Jules Verne hinterließ z.B. Aufzeichnungen in 20000 (!) Heften. 4. Gute Technik der Lösung von Aufgaben. Die Biografen von August Piccard82 schrieben, dass sich seine Erfindung des Bathyskaphs (Tiefseetauchboot) grundlegend von einer Vielzahl ähnlicher Erfindungen unterscheidet, die oft rein zufällig, aber in jedem Fall intuitiv gemacht wurden. Piccard kam zu seinen Erfindungen nur durch eine systematische, durchdachte Lösungssuche. Der Entwickler des Stratostats und des Bathyskaphs konnte technische Widersprüche erkennen 82
Piccard, A. (1884-1962) – schweizer. Physiker, Ingenieur und Naturwissenschaftler
290
Erfindungskunst
und verfügte über eine nicht geringe Anzahl von Erfindungsverfahren, sogar aus Sicht der modernen TRIZ. 5. Die Fähigkeit, seine Ideen zu verteidigen – „die Fähigkeit den Schlag abzufangen“. Es vergingen 40 Jahre vom Traum auf die maximale Tiefe des Meeresbodens zu gelangen bis zum ersten Start eines Bathyskaphs. In dieser Zeit musste August Piccard vieles erdulden: Mangel an Mitteln, Verhöhnung durch Journalisten, Widerstand der Ozeanologen. Piccard war 70 Jahre alt, und machte den Platz des Piloten frei für seinen Sohn Jaques. 6. Resultativität. Wenn die ersten fünf Eigenschaften vorhanden sind müssen auf dem Weg zum Ziel positive Teilergebnisse erreicht werden. Die TRIZ steht nur mit vier Eigenschaften aus diesem Komplex in Beziehung. Doch die Eigenschaften bilden ein System: man kann keine hohen Werte in einem Punkt erwarten, wenn alle anderen gegen Null gehen. Für die Entwicklung der Gesellschaft ist jeder dieser Typen der Kreativität wichtig. Wenn das Leben mit Handlungen des ersten Typs verbunden ist, verläuft es oft günstig, wenn jedoch mit dem zweiten oder dritten Typ, ist es fast immer nicht leicht und manchmal sogar dramatisch. Wenn die Kreativität des ersten Typs unmittelbar den Fortschritt realisiert, so bestimmt die Tätigkeit des zweiten oder dritten Typs seine taktische und strategische Richtung, stellt und löst Aufgaben der entfernteren, aber dennoch auf uns zu eilenden Zukunft. Deshalb ist diese Kreativität für die Gesellschaft insgesamt bedeutend wichtiger. Und deshalb empfiehlt die TRIZ, neben der Motivation, auch kreative Fertigkeiten zu entwickeln. Das kann durch Übung, durch Ansammeln von Erfahrungen bei der Lösung von Aufgaben beim Erfinden oder die Vervollkommnung von Lösungstechniken auf der Basis der TRIZ erreicht werden. Ebenso dienen diesem Ziel das Studium führender kreativer Persönlichkeiten, sowie das Studium kreativer Lösungen in Kunst, Literatur, Film, Politik, Wirtschaft, Psychologie und anderen Bereichen der menschlichen Tätigkeit. 19.2 Adaptation des TRIZ-Wissens für den Beruf Das Hauptziel der TRIZ besteht darin, dass das Denken talentiert wird und Intuitionen steuerbar, gesetzmäßig und gut funktionierend werden. Sie werden durch die Arbeit mit diesem Buch feststellen, dass Sie für die Lösung neuer Aufgaben viele neue Werkzeuge zur Verfügung haben. Gleichzeitig ist es aber notwendig, um die TRIZ für Ihren beruflichen Bereich adaptieren zu können, sie immer wieder anzuwenden und zu trainieren. Eine Begründung dafür finden Sie in den folgenden Aussagen. Erstens, wenn Sie Fachliteratur aus ihrem speziellen beruflichen Bereich lesen, interpretieren Sie das neue Wissen und entnehmen für sich nur die Fakten, von denen Sie denken, dass sie unmittelbar bei Ihrer Arbeit angewendet werden können. Das bedeutet, Sie wählen Informationen aus und systematisieren sie. Die TRIZ ist im Gegensatz dazu universell und recht weit reichend. Deshalb muss sie im Ganzen, lückenlos erlernt werden! Das ist dem genau entgegengesetzt, woran wir uns lange Jahre in unserer beruflichen Tätigkeit gewöhnt haben.
19 Integration der TRIZ in die professionelle Tätigkeit
291
Zweitens, jede Tätigkeit erfordert Erfahrungen. Es ist klar, dass jeder Arzt bevor er Patienten behandelt, zunächst ein umfangreiches Praktikum und eine lange Assistenzzeit bei erfahreneren Ärzten absolvieren muss. Kein Arzt darf während seines gesamten Berufslebens aufhören, Erfahrungen zu sammeln und zu analysieren. Warum behaupten dann aber viele Ingenieure, dass sie bereits alle Feinheiten ihres Berufs kennen? Oder noch schlimmer, wenn Manager so über sich denken! Drittens, wundern wir uns denn, wenn wir durch ein Fenster Leuten verschiedenen Alters beim Training zusehen (selbst, wenn wir keine Musik und Anweisungen des Trainers hören). Sie springen, strecken ihre Arme aus und machen einheitliche rhythmische Bewegungen. Und wir wissen, dass dort Sportler oder aber einfach nur gesundheitsbewusste Menschen trainieren. Dieses Training ist bereits zu einem Standardelement unserer modernen Gesellschaft geworden. Warum werden denn aber Empfehlungen, die geistigen Fähigkeiten zu trainieren oft als Affront empfunden oder rufen ein müdes Lächeln oder Verwunderung hervor. Liegt das nicht daran, dass die Kultur des Denkens in der modernen Gesellschaft noch nicht weit genug entwickelt ist, um zu verstehen, dass ständiges Training des Denkens ein absolut notwendiges Verfahren ist. Nur durch ein solches Training kann das Denken effektiv auch bis ins hohe Alter gestaltet werden! Und letztendlich, wie viele Menschen, die der Meinung sind, dass sie ziemlich zivilisiert sind, halten sich denn an die bekannten und bereits erwähnten Rezepte für die Gesundheit? Aus dem Buch „Wie wird man ein Genie“ und andere Quellen: davon gesund zu sein träumt jeder, und das Rezept ist einfach – keinen Alkohol trinken, nicht rauchen, keine zu laute Musik hören, besonders mit Kopfhörern, regelmäßige gesunde Ernährung und viel Bewegung an der frischen Luft. Eigentlich ist alles ganz einfach. Jedoch halten sich viele an diese „Einfachheit“ im Leben? Hier geht es ohne Zweifel um die Erhaltung der Gesundheit. Was lässt sich aber über die Kreativität sagen, wenn sich vom Wesen her für die Gesundheit recht zerstörerische „Vergnügungen“ als Alternative überall verstecken? Und wenn Gesundheit selbst gar nicht als Vergnügen wahrgenommen wird? Hier nun konkrete Empfehlungen. 1. Man sollte nicht denken, dass sofort nach der Lektüre dieses Buches jedes beliebige schöpferische Problem gelöst werden kann. Vergleichen Sie: würden Sie sich in einen Boxring begeben, nachdem Sie nur eine Anleitung für das Boxen gelesen haben und nicht mal eine Vorstellung haben, wem Sie dort begegnen werden? Und wer weiß denn, welches „Superschwergewicht“ sie in der Realität im „intellektuellen Ring“ erwartet? 2. Arbeiten Sie regelmäßig mit diesem, oder ähnlichen Büchern. Versuchen Sie immer wieder die Lösung einer Aufgabe in Gedanken nachzuvollziehen, und sehen Sie immer weniger im Lehrbuch nach, welche Lösungsvariante dort vorgegeben wird. 3. Folgen Sie dem Prinzip des Verfahrens, nicht aber dem erklärenden Beispiel. Die ganze Kraft eines Verfahrens liegt in seinem Prinzip. Und in Ihrer Phantasie, in der Fähigkeit ein Verfahren, hinsichtlich der zu lösenden Aufgabe zu interpretieren. 4. Ersetzen Sie! Das ist ein „goldene“ TRIZ-Regel! Man muss lernen, jedes Problem so zu beschreiben, dass es sogar ein Schüler, zumindest höherer Klassen-
292
Erfindungskunst
stufen, verstehen kann. Oft zeugt der Fakt, dass Sie nicht in der Lage sind, ein Problem mit anderen allgemeinverständlichen Worten zu beschreiben, davon, dass Sie selbst die Aufgabe nicht genau verstanden haben. 5. Stellen Sie eigene Kataloge auf, für Verfahren und originelle Lösungsideen aus Patenten, technischer Literatur, Sciencefiction, Krimis und allen möglichen anderen intellektuellen Quellen. 6. Machen Sie Notizen! Auch das ist eine „goldene“ TRIZ-Regel! Erstens, fühlen wir uns für Geschriebenes weitaus mehr verantwortlich, als für Gesprochenes. Zweitens, regt die Visualisierung und Verwendung rein mechanischer Kräfte zusätzliche Neuronenfelder und Assoziationen an, die für die Lösung des Problems hinzugezogen werden. Drittens, wenn Sie wissen, dass Sie ihre oft kurzlebigen Gedanken nicht mehr vergessen können, weil Sie diese aufgeschrieben haben, schaffen Sie damit neuen Platz im „operativen Gedächtnis“ für neue Ideen! 7. Wenden Sie TRIZ-Software an. Bekannte Produkte sind in Abschn. 18. CAI: Computer Aided Innovation / Invention beschrieben. Einer der Vorteile der TRIZ-Software sind ihre unterschiedlichsten Anwendungsbeispiele für die TRIZInstrumente. Der zweite Vorteil, besonders im System PentaCORE (Abschn. 21.3), besteht in der Möglichkeit, eigene Beispiele des Anwenders unmittelbar in die Kataloge und Navigationssysteme der Software aufzunehmen. Diese Funktion der Software PentaCORE wurde speziell entwickelt, um dieses System der eigenen beruflichen Tätigkeit anpassen zu können. Sie soll eine zweigspezifische Orientierung unter Berücksichtigung der individuellen Spezialisierung und persönlicher Interessen ermöglichen. 8. Trainieren Sie Ihre Beobachtungsgabe, Ihr Gefühl für die Brillanz einer Lösung. Im Prozess der Lösungssuche kann es passieren, dass es Ihnen nicht gelingt eine Idee zu entwickeln, obwohl Sie Verfahren und andere Empfehlungen angewendet haben. Es ist dann durchaus möglich, dass Sie es mit einer Aufgabe zu tun haben, für deren Lösung neues Wissen, neue wissenschaftliche Untersuchungen notwendig sind. Und genau hier verläuft die fundamentale Grenze zwischen der Möglichkeit und der Unmöglichkeit, eine technische Idee zu entwickeln und zu realisieren. Wenn man auch dem talentiertesten Wissenschaftler in der Mitte des XIX. Jh. die Aufgabe gestellt hätte, ein metallisches Erzeugnis zu durchleuchten, so hätte er sicher nur mit den Schultern gezuckt. Heute verwenden Konstrukteure dafür Röntgen- und Gammastrahlen sowie Ultraschall. Um eine entstandene Situation richtig beurteilen zu können, benötigt der Erfinder ausreichende Kenntnisse der Geschichte nicht nur seines, sondern auch vieler angrenzender Bereiche. Und dennoch, was tun, wenn es scheint, dass keinerlei Methoden mehr funktionieren? In diesem Fall kann es nützlich sein, Umwege zu suchen und dabei die psychologischen Ressourcen des Menschen auszunutzen Regel 1. Sie lässt sich durch zwei Fragen formulieren: „Warum war das so, und warum muss es anders sein?“ Der erfahrene Erfinder macht sich nie an die Lösung einer Aufgabe, ohne sich klar gemacht zu haben, in welche Richtung sich die Technik entwickelt. (s. Abschn. Strategie und Taktik des Erfindens).
19 Integration der TRIZ in die professionelle Tätigkeit
293
Regel 2. Sie lässt sich folgendermaßen umschreiben: „Mal sehen was passiert!“ Hierbei muss man sich vorstellen, dass eine negative Auswirkung durch einen technischen Widerspruch bereits eingetreten ist. Man sollte jetzt überlegen, ob diese Auswirkung nicht eigentlich für das betreffende System natürlich ist und Ideen nicht einfach nur schlecht umgesetzt wurden. In einem Betrieb wurden einst nicht gerade geringe Anstrengungen unternommen, um eine Greifeinrichtung für Stahlplatten, beim Transport mit einem Kran, zu entwickeln. Größe und Gewicht der Platten stieg ständig, und es kam vor, dass Platten herunterfielen, und so musste man nach einer neuen Konstruktion der Greifeinrichtung suchen. Es wurde dann ein völlig anderer Weg beschritten. Möge „der Zufall zur Regel werden“ – die Platten sollten sich ja sowieso näher am Boden befinden, dann brauchten sie auch nicht mehr angehoben werden! Und so wurden einfache, auf Schienen laufende Wagen verwendet, die es möglich machten Platten praktisch jeden Gewichts zu bewegen. Regel 3. Diese Regel widerspiegelt die wichtigste psychologische Entdeckung in der Methodik der Kreativität. Es handelt sich dabei um - das sich Stützen auf den Hauptwiderspruch und das ideale Resultat: „Je schwieriger es wird, den Hauptwiderspruch genauer zu formulieren, desto näher liegt die richtige Lösung!“ Für mich formuliere ich diese Regel kürzer: „Je komplizierter – desto besser!“ Ende des letzten Jahrhunderts stieß der schwedische Erfinder Laval83, beim Versuch die Dampfturbine zu verbessern, auf eine fast nicht zu bewältigende Schwierigkeit. Der Rotor der Turbine vollführte pro Minute fast Dreißigtausend Umdrehungen. Bei solchen Geschwindigkeiten war es äußerst wichtig, den Rotor ganz genau im Gleichgewicht zu halten, und genau das wollte nicht gelingen. Die Schwierigkeiten wuchsen unaufhaltsam! Der Erfinder vergrößerte den Durchmesser der Welle, machte sie fester, dennoch kam es jedes Mal in der Maschine zu Vibrationen, und die Welle verformte sich. Nachdem es nicht mehr möglich war, die Welle noch fester zu gestalten, entschied Laval den genau umgekehrten Weg zu prüfen: für einen Versuch wurde eine massive Holzscheibe auf ein Schilfrohr gesetzt – das Prinzip „Entgegengesetzt“ und die Regel „Mal sehen was passiert!“. Und plötzlich zeigte sich, dass sich die „biegsame Welle“ bei Drehung selbst ins Gleichgewicht brachte! Regel 4. Eine sehr nützliche Regel, wenn sie funktioniert! Um sie sich leicht zu merken, kann man sie kurz, so formulieren: „Minus mal Minus ergibt Plus!“ oder „Zwei Fliegen mit einer Klappe schlagen!“ Das heißt versuchen, den einen negativen Effekt durch einen anderen negativen Effekt aus ein und demselben System zu beseitigen. So wurde z.B. in den ersten Fotoapparaten mit einfachen Objektiven, die Blende entweder vor dem Objektiv bzw. hinter dem Objektiv eingebaut. Im ersten Fall wirkte die Darstellung etwas „aufgebläht“ im zweiten Fall – irgendwie zusammengepresst. Diese Erscheinung (Distorsion) ließ sich lange Zeit nicht beseitigen. Der Ausweg wurde gefunden, indem zwei Blenden eingebaut wurden – eine vor dem Objektiv und eine dahinter! Der Fluss der Strahlen wurde etwas erweitert, und danach etwas verengt. Ein Mangel konnte durch den anderen kompensiert werden. 83
Laval, C.G.P. (1845-1913) – schwedischer Ingenieur und Physiker
294
Erfindungskunst
Insgesamt gesehen sollte man immer daran denken, dass die TRIZ, so wie jede Theorie allen von Nutzen sein kann. Jedoch in talentierten Händen funktioniert sie besonders gut. Die Theorie des Schachspiels entstand im Ergebnis des Sammelns und der Analyse einer großen Zahl von realen Schachpartien. Einen solchen Weg hat auch die TRIZ sowohl hinter als auch noch vor sich. Wenn aber die Niederschrift von Schachpartien in gewisser Hinsicht die Gedankengänge der Spieler widerspiegelt, so sind in Beschreibungen von Erfindungen nur die Ergebnisse der Arbeit fixiert. Für die Rekonstruktion der Gedankengänge des Erfinders braucht man das Re-Inventing! Die TRIZ lehrt dieses Re-Inventing. Und damit lehrt sie auch, neue Aufgaben zu lösen. Die Grundlage der Analyse eines Schachspiels bildet der Wunsch zu verstehen, worin der Unterschied des Spiels eines Großmeisters zum Spiel eines Schachlaien besteht. Den Großmeister kann nur jener verstehen, der ähnlich gut Schach spielen kann! Die TRIZ stattet Sie mit den stärksten „Zügen“ aus, die in Millionen „Erfindungspartien“ gespielt wurden und eröffnet jedem die Geheimnisse des Spiels des Großmeisters, jedem, der sie für sich selbst eröffnen will! 19.3 Zehn typische Fehler In der Erfindungspraxis kommen nicht gerade wenige typische Fehler vor (Abb. 19.1). Diese Fehler sind unterschiedlicher Natur, jedoch stören sie alle bei der Suche nach Lösungen (mit der TRIZ oder ohne die TRIZ). ʋ
Bezeichnung und Erklärung
1
Sackgasse: Die Problemstellung ist von vornherein so ausgerichtet, dass sie in eine perspektivlose Richtung laufen muss. Das ist ein typischer Fehler bei dem Versuch Systeme zu verbessern, deren Entwicklungsressourcen praktisch erschöpft sind.
2
Übertriebenes Konkretisieren: Eine zu enge Problemstellung, charakteristisch für Facharbeiter. Projektion: Anstelle einer konkreten Aufgabe wird versucht eine weitaus kompliziertere zu lösen.
3 4
Durcheinander: Eine Situation, in der sich hinter einer Aufgabe ein ganzer Berg von Aufgaben verbirgt.
5
Informationsflut: Eine Situation in der ein Spezialist, der eine Aufgabe stellt massenhaft Informationen liefert, in denen die wichtigsten untergehen. Bei dem Versuch so die Aufgabe zu erleichtern, macht er sie schwieriger.
6
Informationsmangel: Eine Situation in der ein Spezialist, der eine Aufgabe stellt, wichtige Fakten vernachlässigt. so z.B. über vorhandene Ressourcen. Entweder weil er sie für unwesentlich hält oder denkt, dass sie allen bekannt sind. Das ist ein charakteristischer Fehler, wenn eine Aufgabe anhand von Fremdinformationen gestellt wird, wo konkrete Fakten nicht genau bekannt sind.
7
Zu große Einschränkungen: Charakteristisch dafür ist die Forderung, eine Aufgabe streng nach einem bestimmten Muster zu erfüllen, z.B. „nichts verändern“
19 Integration der TRIZ in die professionelle Tätigkeit 8
9
10
295
Sekundäre Erklärung: Eine Situation in der ein Spezialist den einen oder anderen Effekt, Fakt oder Besonderheit eines Systems nicht mit realen sondern fehlerhaften, aber gewohnten Gründen erklärt. „Kurzsichtige“ Aufgaben: Eine Aufgabenstellung, bei der nicht berücksichtigt wird, welche Veränderungen während der Zeit ihrer Lösung und bevor das „neue“ System fertig ist vonstatten gehen könnten. Hier können Fehler bei den Anforderungen an das System als auch Fehler bei der Bewertung der Produktions- und Verkaufsmaßstäbe auftreten. Korrigierende Aufgabe: Eine Situation in der es nahe liegend scheint einen technologischen Abschnitt zu verbessern, der dafür entwickelt wurde, um bereits bestehende Mängel auszuräumen, anstelle dessen, dass vorher versucht wurde die technologischen Operationen zu optimieren, in denen die Fehler aufgetreten waren.
Abb. 19.1. Tabelle „typische Fehler“ beim Erfinden
19.4 Reinventing praktischer Beispiele Weiter unten betrachten wir zwei praktische Beispiele, welche die Anwendung der TRIZ bei der Lösung praktisch „unlösbarer“ Probleme demonstrieren. Bsp. 126. Halten einer dünnen Glasplatte im Vakuum. Allgemeine Beschreibung des Problems Ein Unternehmen in Südkorea produziert ziemlich ungewöhnliche Maschinen für die Produktion von LED-Bildschirmen. In diesen Maschinen werden zwei äußerst dünne (weniger als 1 mm Dicke), flexible, leicht zerbrechliche Glasplatten mit einer Größe von fast 2 m von beiden Seiten verbunden. Auf der Fläche dieser Platte befinden sich somit mehrere künftige Bildschirme (Abb. 19.2). Ein Roboter bringt und legt die erste (untere) Platte auf die untere Schicht der Maschine. Danach legt der Roboter die zweite (obere) Platte auf die obere Schicht. Mit Hilfe eines Vakuums wird diese Platte auf die obere Schicht gepresst und so vor der Operation festgehalten. Jede Platte muss zuverlässig gehalten und an die entsprechende Schicht gepresst werden. Danach wird die obere Schicht hin zur unteren losgelassen und somit passen sich beide Schichten zueinander entsprechend spezieller Merkmale an. In diesem Moment wird die Luft aus der Arbeitskammer herausgepumpt, bis ein starkes Vakuum erreicht ist. Deshalb wird nun das Halten der Glasplatten mit Hilfe eines anderen Verfahrens realisiert, speziell durch ein elektrostatisches Feld. Bei aller „TRIZ-Idealität“ aus Sicht der Linien der Entwicklung von Stoffen und Feldern hat dieses Verfahren in der Praxis zwei große Nachteile: ein zu großer Energieaufwand für die Schaffung der geforderten Größe der elektrischen Spannung und ein zu großer Zeitaufwand für die Prozesse des Übergangs beim Ein- und Ausschalten des elektrostatischen Feldes.
296
Erfindungskunst
Besondere Schwierigkeiten entstehen auch wegen der besonderen Anforderungen an die Technologie der Montage, die darin bestehen, dass die Glasplatten horizontal zu einander angepasst werden müssen. Die primären Punkte der flüssigen Kristalle werden auf die untere Glasplatte an vorgegebenen Stellen entsprechend der Position der herzustellenden Bildschirme aufgetragen. Hermetisierende Schichten eines Epoxid-Klebers, der die künftigen Bildschirme in ihrer Kontur verschmilzt, werden auf die untere Oberfläche der oberen Platte aufgetragen. Nach Annäherung auf extrem kleine Abstände (Bruchteilen von Millimetern!) und der Positionierung der Platten zueinander wird entlang der gesamten Oberfläche der oberen Platte ein Impuls eines neutralen Gases ausgesendet, was dazu führt, dass die obere Platte sich an die untere anheftet (Pressung). Das Schema in Abb. 19.2 illustriert die Beschreibung dieses technologischen Prozesses. Noch einmal sollte betont werden, dass das Festhalten der Platten in einer Vakuumkammer vollzogen wird. Vom Autoren dieses Buches wurden mehr als 20 Lösungen dieser Aufgabe entwickelt. Einige dieser Lösungen wurden hier so verwendet, dass sie zu Lehrzwecken besser eingesetzt werden können.
Untere Fläche der oberen Platte Konturen des EpoxidKlebers
Obere Fläche der unteren Platte Flüssigkristall„Punkte“
Abb. 19.2. Glasplatten für die Herstellung von LED-Bildschirmen
19 Integration der TRIZ in die professionelle Tätigkeit
297
Epoxid-Kleber nach dem Ansaugen Permanente FlüssigkristallSchichten nach dem Ansaugen Abb. 19.3. Position der Konturen des Epoxid-Klebers und der FlüssigkristallSchichten (auf Punkten!) nach Ansaugen der Platten
DIAGNOSTIK Problemsituation Zunächst werden die Platten durch Vakuum-Kapillare gehalten, die die Gestalt der Schichten haben, und unter Bedingungen des Vakuums – die Gestalt von elektrostatischen Feldern. Ungeachtet dessen, dass ein elektrostatisches Feld in Bezug auf die Entwicklungslinien von Ressourcen progressiver zu sein schneit (und seine Anwendung deutlich verbessert werden kann!), wollte der Auftraggeber (und das ist kein seltener Fall, dass der Berater entgegen den Gesetzen der TRIZEntwicklung arbeiten muss) eine Anwendung elektrostatischer Verfahren völlig ausschließen. Extraktion des Problems aus der ursprünglichen Problemsituation Unter Einwirkung des Eigengewichts, strebt die obere Platte danach, sich von der unteren Schicht zu lösen und nach unten zu fallen. Und trotz des Vakuums muss jedoch die obere Platte vollständig an die obere Schicht dicht und gleichmäßig angepresst werden. Wie kann das erreicht werden? Die Strategie einer Lösung hängt von der Definition der operativen Zone, der Ressourcen und der operativen Zeit ab. Betrachten wir folgende Versionen: 1. eine Arbeit in der operativen Zeit nur mit der oberen Platte; 2. eine Arbeit mit beiden Platten in der operativen Zeit; 3. gemeinsame Untersuchung des Systems in den Intervallen vor, während und nach der operativen Zeit; 4. kombinierte Untersuchungen der Möglichkeiten. REDUKTION Operative Zone und Ressourcen Die obere Schicht der oberen Platte (für das Festhalten!); der Raum zwischen diesen Platten und der Schicht; die Oberfläche der oberen Schicht unter der oberen Platte; Gravitationskräfte (gesamte Platte); extremes Vakuum.
298
Erfindungskunst
Beachtet werden muss auch das Material der Platte (Glas) und das Material der Schicht (Aluminium). Induktor und Rezeptor Induktor – Schicht. Rezeptor – Glasplatte. Technischer Widerspruch Die Schicht S2 muss die Platte S1 halten, jedoch fehlt eine effektive Wechselwirkung zwischen Schicht und Platte. Mit anderen Worten: die Schicht muss die Glasplatte halten, jedoch wirken die Gravitationskräfte diesem entgegen. Nr. TW
Wirkung, Zustand, Objekt Halten der oberen Glasplatte ( + ) - Faktor
( - ) - Faktor
1
Halten im Vakuum
09
Herstellungsfreundlichkeit
Schädliche Wirkung der Gravitationskräfte
13
2
Halten im Vakuum
09
Herstellungsfreundlichkeit
Nutzung teurer 37 Elektroenergie bei elektrostatischem Halten
Energieaufwand durch das bewegliche Objekt
03, 04, 10, 13
3
Große 17 Fläche der Platte
Fläche des beweglichen Objekts
Schädliche Wirkung der Gravitationskräfte
Gewicht des beweglichen Objekts
04, 05, 14, 19
32
Äußere 05, 18 schädliche Faktoren
Abb. 19.4. Ausgewählte technische Widersprüche für die Modellierung des Problems
Physikalischer Widerspruch Die Schicht S2 muss die Platte S1 halten, damit die nützliche Hauptfunktion gewährleistet wird, und die Schicht S2 soll die Platte nicht halten, wegen des Fehlens von Ressourcen (Felder, Kräfte). Ideales Funktionales Resultat Macro-FIM: eine X-Ressource, die das System nicht verkompliziert und keine negativen Effekte hervorruft, gewährleistet gemeinsam mit anderen vorhandenen Ressourcen [ ein zuverlässiges Halten der oberen Platte (bei extremem Vakuum)].
19 Integration der TRIZ in die professionelle Tätigkeit
299
Zusätzliches Modellieren (Abb. 19.5) Das konstruierte Modell ist unvollständig, weil es nur zwei Stoffe beinhaltet: S1 – Rezeptor und S2 – Induktor. Das Feld Fm der nützlichen Wechselwirkung zwischen ihnen fehlt (!). Dabei kommt es zu einer schädlichen Wirkung des Gravitationsfeldes Fg, das S1 von S2 trennt.
Induktor S2 - inductor
S2
zuverlässiges sichere reliable Halten Festhaltung chucking Fm
?
S1
S1 Rezeptor receptor
Fg
a) technisches Modell
b) abstraktes Modell
Abb. 19.5. Ausgangsstoffe und Felder der operativen Zone
TRANSFORMATION Lösung der technischen Widersprüche Anhand der Tabelle der Widersprüche (Abb. 19.4) kann man eine Rangfolge entsprechend der Anzahl der Navigatoren erkennen: 03, 04², 05², 10, 13, 14, 18 und 19. Demnach kann ein allgemeines „Portrait“ der Lösung folgende Beschreibung erhalten: 03 Zerteilen – das Objekt in voneinander unabhängige Teile zerlegen; 04 Ersatz der mechanischen Umgebung – c) Übergang von unbeweglichen zu beweglichen Feldern, von fixierten zu zeitlich veränderlichen, von unstrukturierten zu strukturierten; d) Verwendung von Feldern in Verbindung mit ferromagnetischen Teilchen; 05 Ausgliedern – Abtrennung eines „störenden Teils“ („einer störenden Eigenschaft“) vom Objekt oder Ausgliedern des einzig notwenigen Teils (der notwendigen Eigenschaft); 10 Kopieren – a) Verwendung anstelle nicht verfügbarer, komplizierter, kostspieliger, wenig komfortabler oder schlecht zu handhabender Objekte von vereinfachten und kostengünstigen Kopien; 13 Billige Kurzlebigkeit anstelle teurer Langlebigkeit – Ersatz von teuren Objekten durch mehrere kostengünstige Objekte, die dabei über mehrere Eigenschaften nicht verfügen (z.B. Langlebigkeit);
300
Erfindungskunst
14 Verwendung von pneumatischen und hydraulischen Konstruktionen – Verwendung von gasförmigen oder flüssigen Teilen anstelle von festen Teilen eines Objekts: aufblasbare und hydraulisch füllbare, Luftkissen, hydrostatische und hydroreaktive; 18 Vermittler – a) Verwendung von Vermittlerobjekten, die eine Wirkung übertragen oder übertragen bekommen; b) zeitweilig ein Objekt mit einem anderen Objekt (leicht zu entfernen) verbinden; 19 Übergang in eine andere Dimension – b) Einsatz einer mehretagigen Komposition, ein Objekt kippen oder auf die Seite legen, Verwendung der entgegengesetzten Seite des frei gewordenen Platzes. Einige Lösungen können auf der Grundlage der Navigatoren 10, 13, 18 und 19 formuliert werden. Dabei besteht die allgemeine Idee darin, eine Kopie der Platte als Vermittler zu verwenden, der die Platte auf ihrer gesamten Oberfläche festhält und selbst an die untere Oberfläche der oberen Schicht angepresst ist. Auf der Grundlage der Navigatoren 05 und 14 können andere Lösungen formuliert werden: auch im Weiteren das Vakuum für das Festhalten der Platte nutzen. Lösung des physikalischen Widerspruchs in allgemeiner Form In diesem Fall ist es notwendig, einen passenden physikalisch-technischen Effekt für die Schaffung des Feldes Fm zu suchen und anzuwenden (Abb. 19.5.b), das ausreichend Kraft produziert, um die Glasplatte unter der oberen Schicht unter den Bedingungen des Vakuums festzuhalten. Ideen für technische Lösungen Entsprechend der betrachteten Modelle, können mehrere technische Lösungen gefunden werden. Betrachten wir einige von ihnen. Idee 01. Intensiveres Vakuum S2 – Induktor inductor 11 P1 Fmech – Induktor inductor 22
S1 receptor Rezeptor
Fg
P2
Abb. 19.6. Lösung auf der Grundlage der Erzeugung eines intensiveren Vakuums unter der Platte, im Vergelich zum Vakuum in der Kammer
19 Integration der TRIZ in die professionelle Tätigkeit
301
Die obere Platte bleibt angepresst an die obere Schicht, unter der Bedingung, dass der Druck P1 < P2 ist, für einen bestimmten Wert, wobei P2 den Restdruck in der Vakuumkammer darstellt. Idee 02. Kleber S2 – inductor Induktor11
S3 – inductor Induktor22 Fadh
S1 receptor Rezeptor
Fg
Abb. 19.7. Lösung auf der Grundlage der Gestaltung einer temporären Klebeschicht zwischen der Platte und der Schicht
Die obere Platte wird mit Hilfe des Klebers S3 festgehalten. Der Kleber kann temporär aufgetragen werden, vor Eintreten der Platte in die Kammer oder aus Kapillaren auf die obere Schicht austreten. Der Kleber kann auf der gesamten Oberfläche aufgetragen werden. Nach Abschluss der Operation kann der Kleber in die Kapillare der oberen Schicht zurückgezogen werden. Idee 03. Beidseitiger adhäsiver Vermittler-Film oder ein dünner (dicker) Streifen S2 – inductor Induktor 11
S3 – inductor Induktor 2 Fadh
S1 Rezeptor receptor
Fg
Abb. 19.8. Lösung auf der Grundlage der Einführung eines dünnen Films oder Streifens mit zwei adhäsiven Seiten als Vermittler
Idee 04. Adhäsiver Vermittler in Form eines Films oder Streifens mit ferromagnetischen Teilchen In die obere Schicht werden Elektromagnete integriert. Eine temporäre einseitigadhäsive Schicht S3 mit ferromagentischen Teilchen wird auf die obere Schicht
302
Erfindungskunst
der Platte aufgetragen (aufgeklebt). Nach Einschalten der Elektromagneten wird der ferromagnetische Vermittler auf die obere Schicht zusammen mit der Platte aufgedrückt. nduktor 1 S2 - Iinductor
Fem
S1 - Rezeptor
nduktor 2 S3 - Iinductor S1 receptor Abb. 19.9. Lösung auf der Grundlage der Anwednung eines einseitigen adhäsiven
Vermittlers in Form eines Films oder Streifens
Idee 05. Adhäsive ferromagnetische Konturen in „leeren“ technologischen Zonen unter der Platte zwischen den Bildschirmen S2- Induktor – inductor S2 11
S1 - Rezeptor
S1 receptor
Fem
S3 S3 - Induktor 2 2 – inductor
Abb. 19.10. Zweite Lösung auf der Grundlage der Anwendung eines einseitigen adhäsiven Vermittlers in Form eines Films (der beim Zerschneiden der Platte in Bildschirme entfernt werden kann)
Umstrittene Variante der „idealen“ Lösung: es werden ferromagnetische Teilchen dem Epoxid-Kleber S3 zugesetzt. Das Problem besteht in der Zerstörung der geforderten Eigenschaften der Schicht des Epoxid-Klebers. Idee 06. Doppeltes magnetisches Feld S1' – Induktor inductor 11
adhäsiver Vermittler für inductor Induktor 11 S1 "- adhesive mediator for
S1 - Rezeptor receptor
Fem
Induktor 22 S2 – inductor
Abb. 19.11. Lösung auf der Grundlage zweier magnetischer Felder: in der oberen und unteren Schicht
19 Integration der TRIZ in die professionelle Tätigkeit
303
Ein spezieller Vermittler-Streifen mit steuerbaren Elektromagneten S1' wird an der oberen Platte auf der Basis der Adhäsion angeheftet. In der unteren Schicht befinden sich Elektromagneten S2, die ein Feld mit derselben Polarität erzeugen, wie die oberen Elektromagneten. Dadurch entsteht ein Effekt der Levitation, das heißt die obere Platte schwebt über der unteren Platte. Nach Herstellung des Vakuums verändern sich die Parameter der Strömung der Elektromagneten so, dass die obere Platte sich genau auf die untere legt. Danach erreicht man durch die Veränderung der Polarität des Stroms und des magnetischen Feldes einer der Gruppen der Magneten ein Anpressen der Platte unmittelbar im Vakuum. VERIFIKATION Der wirtschaftliche Nutzen der Herstellung einer neuen Konstruktion ohne Anwendung eines elektrostatischen Verfahrens beträgt 800000 US-Dollar bei einer Maschine. Der wirtschaftliche Nutzen durch die Senkung des Energieverbrauchs kann zusätzlich mit einer Million Dollar im Verlauf von 3-5 Jahren beziffert werden. Neben den betrachteten Lösungen gibt es andere noch effektivere Lösungen.
Bsp. 127. Orthopädische Erfindung84 FITBONE Allgemeine Beschreibung des Problems
Es sind unterschiedliche Konstruktionen für das Aufrechterhalten der richtigen Positionierung und der permanenten Verlängerung eines Knochens nach schweren Traumata bekannt. Einige dieser Konstruktionen sind relativ kompliziert und ihr Einsatz zieht Diskomfort und Schmerzempfindungen beim Patienten nach sich. Das Problem ist äußerst kompliziert und hat eine Geschichte von mehreren Jahrzehnten. Kann man einige solcher Konstruktionen verbessern? Betrachten wir das Re-Inventing der Verbesserung einer dieser orthopädischen Konstruktionen (Abb. 19.12), die nach der Methode von G.A. Ilizarov85 gemacht wurde. Bei der Schaffung dieser Erfindung wurden die TRIZ und der MAI erfolgreich verwendet.
84
Die Handelsmarke, Abbildung und die Ausgangsmaterialien sind Eigentum der Firma Wittenstein intens AG, Deutschland. S.a. Materialien des Erfinders Dr. T.Bayer: TRIZ in der WITTENSTEIN AG. – 4th European TRIZ-Congress, 2005; zusätzliche Quelle Zeitschrift: „DER SPIEGEL”, Nr. 30, Juni 2005 und www.fitbone.de. 85 Akademiker Gavriil Abramovich Ilizarov (1921-1992) – führender russischer Orthopäde und Mediziner
304
Erfindungskunst
DIAGNOSTIK
method
Die Ursprüngliche Konstruktion des „Festhalters“ besteht aus Stäben, die durch Verbindungsringe zu einem einheitlichen Ganzen verbunden sind. Die gesamte Konstruktion kann durch permanente Veränderung der Länge der Stäbe der Länge nach ausgedehnt werden. Lücken im Knochen, die durch ein Trauma entstanden sind, werden durch Knochenfragmente aufgefüllt, die direkt beim Patienten entnommen und auf spezielle Art und Weise bearbeitet werden. Eines der Probleme bei der Anwendung dieser Konstruktion besteht im hohen Arbeitsaufwand bei der „Justierung“, was Fehler in der Form des wiederherzustellenden Knochens verursachen kann. Ein weiteres Problem sind die vielen offenen Wunden durch die Speichen, die durch die Haut zum Knochen geführt werden. Das kann zu Wundinfektionen führen.
holder
Abb. 19.12. Ein „Festhalter“ nach der Methode von G.A. Ilizarov für das Halten und Verlängern von Knochen
Außerdem schränkt diese Konstruktion die Mobilität des Patienten ein und erzeugt starke Schmerzen. REDUKTION Operative Zone und Ressourcen OZ: Knochen. OT: Zeit des Fixierens und Streckens. Induktor und Rezeptor Induktor – Stäbe und Speichen der Streckkonstruktion. Rezeptor – Knochen. Technische Widersprüche für die CICO-Methode Die vollständige Beschreibung des Problems ist mit dem Herausstellen und der Formulierung vieler Widersprüche verbunden. Zu Lehrzwecken wollen wir hier nur einige davon anführen. Danach ist es möglich, die CICO-Methode anzuwenden.
19 Integration der TRIZ in die professionelle Tätigkeit
Nr. TW
Wirkung, Zustand, Objekt Fixieren des Knochens für die Streckung ( + ) - Faktor
( - ) - Faktor
1
Infektionen; Einschränkung der Mobilität und Schlafstörungen
14
Schädliche Faktoren des Objekts selbst
Langwierig mit offenen Wunden
23
Zeit der Wirkung des beweglichen Objekts
07, 21, 31, 38
2
Infektionen; Einschränkung der Mobilität und Schlafstörungen
14
Schädliche Faktoren des Objekts selbst
Einsatz starker Kräfte
30
Kraft
01, 03, 04, 17
3
Beschleunigung der Heilung
01
Produktivität
Kompliziertheit 10 der Konstruktion
Nutzungsfreundlichkeit
03, 04, 08, 34
4
Infektionen; Einschränkung der Mobilität und Schlafstörungen
13
Äußere schädliche Faktoren
Kompliziertheit 23 der Aufrechterhaltung der korrekten Position der Konstruktion
Zeit der Wirkung des beweglichen Objekts
04, 07, 21, 38
Rangfolge nach der CICO-Methode: 043, 032, 072, 212, 382, 01, 08, 17, 31, 34 Abb. 19.13. Ausgewählte technische Widersprüche für die Modellierung des Problems nach der CICO-Methode
Physikalischer Widerspruch (vereinfachte Variante) Knochen unter Einwirkung des Instrumentes für das Fixieren und Strecken
Soll lang sein und die richtige Form haben; Schmerzfreiheit Wegen der komplizierten Konstruktion „soll“ es kurz sein und eine verzerrte Form haben; Vorhandensein von Schmerzen
Abb. 19.14. Grafisches Modell des physikalischen Widerspruchs
305
Erfindungskunst
306
Ideales Funktionales Resultat Macro-FIM: eine X-Ressource, die keine unerwünschten Effekte hervorruft und das System nicht verkompliziert, gewährleistet gemeinsam mit anderen vorhandenen Ressourcen: [richtige Form des Knochens (mit Verringerung der Schmerzen, der Einschränkung der Mobilität und von Schlafstörungen)]. TRANSFORMATION Es lässt sich hier leicht erkennen, dass der Raum die dominierende Ressource ist. Betrachten wir den ersten Abschnitt des Katalogs der fundamentalen Transformationen mit den spezialisierten A-Navigatoren (Anlage 7). TransNr. formationsprinzip
1
Verbindung mit den A-Navigatoren
05 Ausgliedern: Abtrennen eines störenden Teils, ein notweniges Teil herausstellen. 10 Kopieren: Verwenden vereinfachter und billiger Kopien oder Darstellungen. 19 Übergang in eine andere Dimension: Erhöhung des Grades der Bewegungsfreiheit eines Objekts, Verwendung von Zerteilen der mehretagigen Kompositionen, Verwendung von seitlichen und wideranderen Oberflächen. sprüchlichen 22 Sphäroidalität: Übergang zu krummlinigen Oberflächen und EigenBewegungsbahnen, Verwendung von Rollen, Kugeln, Spiralen. schaften 24 Asymmetrie: Übergang zu asymmetrischen Formen, im Raum Erhöhung der Asymmetrie. 25 Verwendung von flexiblen Hüllen und dünnen Schichten: Anstelle von üblichen Konstruktionen flexible Hüllen und dünne Schichten verwenden. 34 Matrjoschka: Ein Objekt der Reihe nach in einem anderen unterbringen, ein Objekt durch einen Hohlraum in einem anderen Objekt verlaufen lassen.
Abb. 19.15. Fragment des Katalog aus Anlage 7.
Die Analyse der Navigatoren und die Formulierung der Ideen kann in folgender Form erfolgen. Entsprechend dem Navigator 05 wäre es sinnvoll, eine X-Ressource einzuführen, so nahe wie möglich am Knochen (Einführung in die operative Zone!). Entsprechend dem Navigator 10 ist es möglich, irgendeine X-Ressource zu verwenden, die dem wiederherzustellenden Knochen ähnlich ist (?).
19 Integration der TRIZ in die professionelle Tätigkeit
307
Der Navigator 19 kann als Empfehlung interpretiert werden, nicht nur die äußere Oberfläche des Knochens zu betrachten, sondern auch die innere (zusätzlicher operativer Raum! Aber ist das denn möglich?). Nach Betrachtung des Navigators 19 sieht der Navigator 34 Matrjoschka merkwürdig aus und völlig unpassend für die Entwicklung einer neuen Konstruktion. Gibt es wirklich eine solche X-Ressource, die ein Strecken des Knochens … aus dem Inneren des Knochens selbst (!?) gewährleistet. Analog dazu kann man bei Betrachtung der Navigatoren aus dem entsprechenden Cluster mit der CICO-Methode arbeiten. Dann kann ein allgemeines „Portrait“ der künftigen Lösung nach „Fragmenten“ und „Projektionen“ in folgender Form beschrieben werden: 04 Ersatz der mechanischen Umgebung – Ja! Es müssen elektrische, magnetische oder elektromagnetische Felder für die Steuerung der neuen XRessource in der operativen Zone um den Knochen herum oder im Kochen (!?) verwendet werden; 07 Dynamisierungen – Ja! In jeden Fall müssen die Parameter der X-Ressource (des Induktors) und des Knochens (des Rezeptors) veränderlich und steuerbar gestaltet werden, damit eine optimale Vergrößerung der Länge des Knochens bei seiner Streckung koordiniert werden kann! 08 Periodische Wirkung – Interessant! Könnte man von einer ununterbrochenen Wirkung zu einer periodischen (impulsartigen) übergehen, um eine geringe Streckung des FITBONE Knochens zu vollziehen, ohne Schmerzen? transmitter Überträger 17 Verwendung von Verbundɩɟɪɟɞɚɬɱɢɤ stoffen – In jedem Fall muss die control ɛɥɨɤ Steuer- device Kompatibilität der Materialien ɭɩɪɚɜɥɟɧɢɹ Block mit Gewebe und Knochen regenerative Fragmente ɮɪɚɝɦɟɧɬɵ gewährleistet werden; des ɜɨɫɫɬɚɧɨɜɢbone 31 Verwendung poröser Knochens ɬɟɥɶɧɨɣ fragments Materialien – Interessant! Das zur ɤɨɫɬɢ sieht wie die Empfehlung aus, Wiederherstellung poröse Elemente zusätzlich für das Fixieren der X-Resource von außen oder innerhalb des Knochens einzusetzen (Einsätze, Hüllen u.ä.); 34 Matrjoschka – Natürlich, warum auch nicht letztendlich! Abb. 19.16. Neue Lösung auf der Warum sollte es keine XBasis der Navigatoren 04, 07 und 34 Ressource der Konstruktion im Inneren des Knochens geben!
308
Erfindungskunst
Beachten wir, dass nach Analyse der Tabelle, Abb. 19.15, der Navigator 34 Matrjoschka recht viel versprechend aussah. Zusammen mit den Navigatoren 04, 07 und 31 sieht die Idee, die Konstruktion innerhalb des Knochens unterzubringen, perspektivreich aus! Wichtigste Idee im Resümee (Abb. 19.16): die Streckvorrichtung in Form eines speziellen steuerbaren Stabes realisieren (in der Zeichnung als FITBONE gekennzeichnet), die in den Knochen eingesetzt wird und sich in der Länge durch einen eingebauten Mikromotor und Miniaturübertragungseinrichtungen vergrößern lässt. VERIFIKATION Beide Arten des Widerspruchs – technischer und physikalischer – sind beseitigt. Die Konstruktion gewährleistet eine zuverlässige, leicht kontrollier- und steuerbare Streckung und Unterstützung der richtigen Knochenform. Starker Super-Effekt: die Methode ist kaum schmerzhaft. Die Erfinder versprechen, dass ein Knochenwachstum von ca. 1 mm pro Tag gewährleistet wird. Nach kurzer Zeit kann der Patient normal schlafen, sich waschen und sogar arbeiten. Natürlich vollzieht sich das alles in Wirklichkeit nicht so einfach, wie in einem Lehrbeispiel. Jedoch bestand unsere Aufgabe darin, die Schritte zur Schaffung dieser realen Erfindung mit Hilfe der TRIZ und beim Abarbeiten der Etappen des Meta-Algorithmus des Erfindens zu rekonstruieren und aufzuzeigen. Außerdem möchte der Autor daran erinnern, dass für die Lösung von Problemen hohen Schwierigkeitsgrades, besonders solcher wie im letzten Beispiel, neben der TRIZ natürlich Fachwissen notwendig ist. So stützte sich der Autor bei der Lösung der Probleme des ersten Beispiels auf die Kooperation seitens von Spezialisten des Unternehmens, das die erwähnten Maschinen zur Montage von LED-Bildschirmen herstellt. Und bei der Lösung des zweiten Problems arbeiteten die Biomechaniker und Erfinder zusammen mit Ärzten – Spezialisten für Chirurgie und Prothetik. Praktikum für die Abschnitte 18 – 19 49. Können Sie sich vorstellen, wie ein Arzt im Röntgenraum den Röntgenapparat einstellt, um eine Aufnahme genau des nur notwendigen Bereichs ihres Körpers zu machen. Der lichtempfindliche Film befindet sich in einem Behälter, der außerdem noch hinter einer Kunststoffwand installiert ist, und auf dem eine zusätzliche Markierung für die Grobpositionierung des Körpers im Verhältnis zum relativ unsichtbaren Film gemacht wurde. Welche Verfahren wurden hier angewendet?
19 Integration der TRIZ in die professionelle Tätigkeit
309
50. Das „Unmögliche“ zulassen. Gehen wir davon aus, dass der geokosmische Industriekomplex, das kosmische Transportsystem (KTS) von A. Yunitzki verwendet wird. Der industrielle Ring befindet sich in einer Höhe von z.B. 1000 km. Zwischen dem Ring und der Erde bewegt sich das KTS. Ist es möglich, dass im All mehrere industrielle Ringe und mehrere KTS funktionieren (versuchen Sie diese Situation zeichnerisch darzustellen). Fragen: 1. Kann man einen Transient-Ring beim Start des KTS von der Erde zwischen den bestehenden Ringen installieren? 2. Kann man ein Transient-KTS auf der Erde starten? 3. Wie kann man den Austausch von Stoffen und Energie zwischen der Erde und dem nächsten industriellen Ring bei Vorhandensein mehrerer transienter KTS bewerkstelligen? 4. Wie können benachbarte und nicht benachbarte industrielle Ringe den Stoffund Energieaustausch mit dem KTS oder anderen Methoden realisieren? 5. Welche Probleme müssen für die technische Zuverlässigkeit, Sicherheit, und Langlebigkeit des KTS und der industriellen Ringe gelöst werden? 51. Das „Unerklärliche“ verstehen. Es ist bekannt, dass Wendeltreppen entwickelt wurden, um z.B. in Türmen von Kirchen oder Schlössern Platz zu sparen. Sie sind meist eng und steil. Auf ihnen kommen von unten bzw. von oben kommende Personen schlecht aneinander vorbei. Kann man die Durchlassfähigkeit einer Wendeltreppe verdoppeln, ohne ihren Durchmesser zu verändern?
Entwicklung der TRIZ
Der Fortschritt lebt von der Kreativität und hängt von der Konzentration talentierter Menschen in jeder Generation ab. Eine kreative Persönlichkeit muss in der Lage sein, komplizierteste Aufgaben zu lösen… Heute arbeitet die Zeit für die TRIZ. Die erste Generation hat die Grundlagen erarbeitet. Sie hatte aber noch nicht die Freiheit, welche für wirkliches Forschen benötigt wird. Wir brauchen eine zweite Generation von TRIZ-Entwicklern. Jetzt haben die Forscher das Wort. Kühn und frei zu sein, das zu erhalten, was wichtig und wert ist, in der neuen Etappe erhalten zu werden. Und mutig zu sein, alles andere zu verwerfen. Heute hat die Theorie ihren Namen bereits übertroffen, doch wegen der Traditionen wurde ihr nichts Neues hinzugefügt. Jetzt ist die Zeit für die neue TRIZ-Epoche gekommen... Genrich Altschuller
20 Auswahl einer Strategie: Mensch oder Computer? 20.1 TRIZ-Wissen: Entwicklungs- und Anwendungsstrategien Der große Wert der TRIZ als Wissenssystem besteht darin, dass die Hauptprinzipien der TRIZ nicht altern. Sie sind invariant über alle Zeit hinweg! So besteht natürlich auch kein Zweifel daran, dass die Hauptentdeckung der TRIZ – das Prinzip des Widerspruchs bei der Entwicklung von Systemen und beim Erfinden als Überwindung des Hauptwiderspruchs des Problems nicht altert. Es besteht auch kein Zweifel an den Hauptgesetzmäßigkeiten und Navigatoren der TRIZ. Invariant bleibt auch der Meta-Algorithmus des Erfindens. Altern können nur die Beispiele für Erfindungen, da sie enger mit dem konkreten Entwicklungsniveau der Technik und allgemein der Wissenschaft, eben mit dem konkreten historischen Entwicklungsniveau technischer Systeme, verbunden sind. So ist die Arithmetik invariant, egal ob die Fahrzeit mit dem Auto zur Arbeitsstelle oder die Flugbahn zum Mars berechnet wird. In Abb. 20.1 finden Sie eine Bewertung der Tempi der Alterung verschiedenen Wissens. Die Frage besteht darin, zu definieren, in welche Richtungen sich das TRIZWissen entwickeln kann und muss. Als alternative strategische Tendenzen kann man folgende erwähnen:
20 Auswahl einer Strategie: Mensch oder Computer?
311
1) Orientierung auf das Erfinden von Innovationen durch den Menschen; 2) Orientierung auf die formale Synthese von Lösungen durch den Computer. 100 %
5
1 – EDV-Fachwissen 2 – Technologiewissen 3 – Berufliches Fachwissen 4 – Hochschulwissen 5 – Schulwissen 6 – TRIZ-Wissen
6
4 3 50
Wissen
2
1
(Quelle: Maschinenmarkt, 25'1995, S.38 - ohne TRIZLinie) 4
8
12
16
20 Jahr
Zeit Abb. 20.1. Bewertung der Alterung von Wissen
Die zweite Richtung basiert im Prinzip praktisch vollständig auf der Formalisierung von Prozeduren der Synthese von Innovationen durch den Intellekt des Menschen. Eine Reihe mathematischer Modelle, speziell Modelle für die Erkennung von Mustern und Modelle für die Optimierung mit mehreren Kriterien, versprechen, den Prozess einer Computersynthese von gut begründeten und effektiven Ideen durchführen zu können. Jedoch lassen sich zumindest folgende ungelöste Probleme der Computersynthese benennen: 1. automatische Formulierung des funktional idealen Modells als Ziele für Innovationen und Transformationen; 2. automatische Formulierung und Berücksichtigung von Aspekten mit sozialer Bedeutung (ethische, ökologische, ästhetische und andere). Mit einem Wort, eine Maschine kann bisher nicht das Wichtigste leisten – ein sozial wertvolles Bild der Zukunft entwerfen. Dazu ist nur der menschliche Intellekt in der Lage. G. Altschuller verwies auch auf folgendes: „Einfache Aufgaben lassen sich buchstäblich durch die Beseitigung des physikalischen Widerspruchs lösen, z.B. durch Zerteilen der widersprüchlichen Eigenschaften in der Zeit oder im Raum. Die Lösung komplizierter Aufgaben erfordert oft die Veränderung des Sinns einer Aufgabe – durch Beseitigung ursprünglicher Einschränkungen, die durch psychologische Trägheit bedingt sind und bis zur Lösung selbstverständlich scheinen. Um eine Aufgabe richtig zu verstehen, muss man sie lösen (!): erfinderische Aufgaben können nicht sofort genau gestellt werden. Der Lösungsprozess ist auch ein Prozess der Korrektur der Aufgabe“. Und dieses Überdenken des Inhalts einer Aufgabe kann nur der Mensch vollziehen!
312
Entwicklung der TRIZ
Bedeutet das, dass die Strategie der Entwicklung des TRIZ-Wissens auf die Ausarbeitung von Methoden orientiert werden muss, die sich nur auf die Verwendung intellektuell-psychischer Ressourcen des Menschen beziehen? Die Erfahrungen des Autors mit Systemen künstlicher Intelligenz und die Entwicklung solcher Systeme für CAD/CAM, Erfahrungen bei der Anwendung und Ausarbeitung der TRIZ-Modelle und TRIZ-Software zeigen, dass der Schwerpunkt von Forschungen mehr in die erste Richtung gerückt werden muss: Unterstützung der Synthese von Ideen durch den Menschen. Dabei sind Computersysteme ein unverzichtbares Instrument für die Kreativität des Menschen. Der Autor folgt also dem wohl stärksten Verfahren der TRIZ – Integration alternativer Systeme mit einem positiven System-Supereffekt. Der Computer kann und muss den Menschen davon befreien, routinemäßige und zeitraubende Arbeiten zu verrichten, z.B. Suche nach Analogien im Patentbestand oder Zugang zu Fakten aus bestimmten Wissensbereichen, die in Enzyklopädien stehen. Die Zugangsverfahren müssen die Beschreibung der Ziele und Kriterien beinhalten, und auch Methoden der Suche selbst, die eine effektive Auswahl der Fakten und die Extraktion des notwendigen Wissens, entsprechend der Ziele einer neuen Idee, gewährleisten. Bis heute (2006) ist der Bereich der Entwicklung von Computersystemen für die psychologische Unterstützung von Prozessen der Kreativität, und besonders der innovativen und erfinderischen Kreativität wenig untersucht worden und kaum produktiv. So kann man auf folgende grundlegende Richtungen der Entwicklung des TRIZ-Wissens verweisen, die sich auf die Unterstützung einer innovativen Tätigkeit des Menschen durch intelligente Computersysteme konzentrieren: 1. Entwicklung von Systemen der Verarbeitung von Wissen für die innovative und erfinderische Tätigkeit; 2. Entwicklung universeller und spezialisierter angewandter Systeme auf der Basis der TRIZ; 3. Integration der TRIZ-Systeme mit anderen Systemen zur Unterstützung der Tätigkeit des Menschen, z.B. mit Bildungs-, Projektierungs-, Steuerungs- und Forschungssystemen; 4. Entwicklung von Systemen zur psychologischen Unterstützung der innovativen und erfinderischen Tätigkeit; 5. Entwicklung von Systemen der Unterstützung der sozialen Werteorientierung des Menschen unter Berücksichtigung der Gesetzmäßigkeiten, Einschränkun-gen und Ziele des ökologischen und sozialen Fortschritts. Eine besonders grundlegende Richtung ist die Ausweitung des TRIZ-Transfers in die Bereiche der Kunst, des Managements und der Erziehung. Die TRIZ kann eine führende Rolle mit sozialer Bedeutung bei der Herausbildung einer breiten Bewegung spielen, die sich das Ziel setzt, kreative Persönlichkeiten hervorzubringen. Dieser Prozess sollte bereits in der Kindheit beginnen. Als psychologisches und pädagogisches Credo zur Untermauerung des eben Erwähnten, möchte ich hier eine Aussage von G. Altschuller anführen [7]: „Gewöhnlich leben wir nach einem dreigliedrigen Schema: Arbeit – Geld – Vergnügen. Ein kreativer Lebensstil sieht
20 Auswahl einer Strategie: Mensch oder Computer?
313
die Verkürzung des mittleren Gliedes vor, das für das Schema kreative Arbeit – Vergnügen überflüssig ist. Der Prozess der Arbeit selbst bringt Befriedigung. Kreativität, das ist die Möglichkeit, sich selbst auszudrücken, sich und die Umwelt zu erkennen und die Welt ein wenig besser zu machen. Kreativität ist die Reise in ein Land der Träume. Kann man aber mit Geld Träume kaufen? Kreative Arbeit sucht sich der Mensch aus freien Stücken aus. Man kann nicht 15 Stunden am Tag freiwillig etwas tun, was man nicht gerne tut: das wäre eine unvorstellbare Belastung. Man kann nur dann zu einem schöpferischen Lebensrhythmus übergehen, wenn die Arbeit zum Bedürfnis wird. Deshalb werden 15 Stunden Arbeit wie 15 Stunden Vergnügen aufgefasst! 15 Stunden Belohnung. ...Was wollen wir eigentlich? Überhaupt, in Zukunft und insgesamt? Der Fortschritt der Menschheit hängt von der Konzentration talentierter Menschen in jeder Generation ab. Je größer der prozentuale Anteil von kreativen Persönlichkeiten in einer Generation ist, desto besser und entwickelter ist die Gesellschaft. Das ist ein Hauptparameter für eine Gesellschaft, die ihre Angelegenheiten definiert, Beschäftigung, Möglichkeiten, Perspektiven. Wenn Einstein mit seiner Arbeit beschäftigt ist, hat er nicht mit Aggression zu tun, er streitet sich nicht im Treppenhaus. Das kostet nur Zeit. Es gibt natürlich auch Ausnahmen (im Sinne negativer, zerstörerischer Kreativität), aber trotzdem lebt der Fortschritt von der Kreativität…“ 20.2 Homo Inventor: der erfinderische Mensch Der Autor legt den Schwerpunkt auf Untersuchungen, die strategisch auf die intellektuell-psychische Aktivität des Menschen bei der Lösung von Problemen und der Schaffung innovativer Ideen orientiert sind. Deshalb sollte hier zumindest kurz die Verbindung zwischen der von ihm entwickelten kreativen Methodologie und der TRIZ erklärt werden. Die Frage nach der Auswahl einer kreativen Methode wird zu Beginn des III. Jahrtausends nicht weniger diskutiert als vor Beginn der christlichen Zeitrechnung. Was aber befindet sich zwischen der Methode Brainstorming, die zur „reinen“ Kunst gehört und, z.B. der Methode der Morphologischen Analyse, die zur „reinen“ Wissenschaft gehört? Beide Methoden zeichnen sich durch Einfachheit und Universalität der Anwendung aus. Dennoch verlieren sie bei schwierigen Aufgaben ihre Vorzüge. Die zufällige (?) Suche nach dem Brainstorming oder die ununterbrochene Auswahl nach der Morphologischen Analyse verlieren hierbei ihre scheinbar so deutlichen Vorteile. Die TRIZ wurde von der Schule G. Altschullers als unversöhnliche Alternative zur Methode des Versuchs und Irrtums entwickelt, unter der man fast alles verstand, was nicht zur TRIZ gehörte. Für die Bewertung des Schwierigkeitsgrads einer Aufgabe wurde ein Multiplikationsfunktional von der Dimension veränderlicher Faktoren verwendet. Wenn z.B. eine Lösung in einem Bereich von 5 Faktoren gesucht werden muss, von dem jeder 10 Bedeutungen annehmen kann, so beinhaltet der Suchraum 100000 Kombinationen. Als Beispiel wird hier oft die
314
Entwicklung der TRIZ
„Methode“ von Edison angeführt, die er bei der Entwicklung einer Laugenbatterie angewendet hatte und bei der 50 Tausend Experimente durchgeführt werden mussten. Viele andere nicht weniger bekannte Beispiele zeigen jedoch, dass erstaunliche Lösungen auch unter den Bedingungen undenkbar kombinatorischer Kompliziertheit gefunden wurden. Das zeugt davon, dass das Gehirn des Menschen nicht einfach nur Auswahlmechanismen verwendet, sondern bestimmte andere Mechanismen, die weitaus effektiver sind. Unter Berücksichtigung dieser Argumente scheint eine Klärung dieser Gegenüberstellung im Stil der TRIZ eigentlich schon philosophisch, eben durch die Vereinigung alternativer Verfahren. Das Ziel dieser Vereinigung ist die Integration von Methoden der Kreativität, die früher als unvereinbar und entgegengesetzt galten. Die Grundlage für diese Integration bildet das Verständnis von der Natur des Denkens. Zumindest in der Art und dem Umfang, welcher objektiv im integralen, einander ergänzenden Funktionieren der linken und rechten Gehirnhemisphäre und in der neurophysiologischen Aktivität der Gehirnhemisphären besteht, sowie im Stirnanteil bei der Integration neuer Ideen. Die Verallgemeinerung dieser Erkenntnisse machte es dem Autor möglich, zu Beginn der 1990er Jahre des XX. Jh. drei Schemata des „kreativen Denkens“ zu konstruieren, die im weiteren als Grundlage für die praktische Ausarbeitung und Kontrolle dieser Schemata selbst dienten. Die Ergebnisse der Anwendung dieses Verfahrens und neue Fakten über die Arbeit des Gehirns bestätigten die Richtigkeit und Nützlichkeit dieser Schemata. Das erste Schema in Abb. 20.2 widerspiegelt den fundamentalen Unterschied des Denkens mit der rechten und linken Hemisphäre und erlaubt, Forderungen an theoretische und angewandte Untersuchungen zu dieser Thematik zu stellen: 1. Zeit: Berücksichtigung der Makrorhythmen des Denkens und der Mikrorhythmen des Funktionierens des Gehirns; 2. Raum: Integration logisch-algorithmischer Modelle und emotional-bildhafter, metaphorischer; 3. Emotionen: Berücksichtigung psychophysiologischer Besonderheiten konkreter Persönlichkeiten – Motivation, psychologische Ressourcen, Gesundheit, Ausbildungsstand.
R
L ZUKUNFT
ZEIT
VERGANGENHEIT
ABSTRAKTES, STRUKTURELLES, DETAILLIERTES
RAUM
REALES, BILDHAFTES, GANZHEITLICHES
OPTIMIST
EMOTIONEN
PESSIMIST
Abb. 20.2. Funktional-strukturelles Modell des asymmetrischen Gehirns
20 Auswahl einer Strategie: Mensch oder Computer?
315
Ergebnisse von Untersuchungen der Aktivität des Gehirns, besonders der russischen Schule von Neurophysiologen, wurden zur Grundlage für „topologische Modelle der Geburt von Ideen“ (siehe Abb. 20.3). ÜBERBEWUSSTSEIN FRONTALE (STIRN-) BEREICHE DES GEHIRNS
L BEWUSSTSEIN PROBLEMSTELLUNG UND AKZEPTANZ EINER IDEE
R
ENSTEHEN EINER IDEE
UNTERBEWUSSTSEIN DOMINANTEN
ASSIMILATION DES PROBLEMS UND DAS REIFEN EINER IDEE
Prof. M. Orloff, 1987, 1995, 2001, 2006
Abb. 20.3. Topologisches Modell der Geburt einer Idee
Letztendlich bietet das dritte Schema eine Vorstellung von emotional-zeitlichen Erscheinungen, die bei neuen Untersuchungen berücksichtigt werden müssen (Abb. 20.4). 20.3 CROST und PentaCORE: fünf Kerne der Kreativität Die Integration von mehreren Verfahren ist somit psychologisch durchaus begründet, Harmonie und Pragmatismus sind hier gut zu erkennen. Die Anfänge einer solchen Integration gehen in die 1980er Jahre zurück, als der Autor dieses Buches diese Richtung begründete und ihr die Bezeichnung CROST verlieh – Constructive Resource&Result Oriented Strategy of Thinking&Transforming. CROST integriert folgende Komponenten: Constructive – die Grundlage dieser Richtung bildet die TRIZ als Theorie und konstruktives Instrumentarium für die gesteuerte Synthese von Ideen, die gerichtete Transformation des zu verbessernden Objekts; Resource&Result Oriented – das Verfahren orientiert auf die Suche und Anwendung von minimal notwendigen und am besten verfügbarer Ressourcen bei der resultativen Lösung innovativer Aufgaben, auch unter Berücksichtigung intellektuell-psychischer Ressourcen des Menschen; Strategy of Thinking&Transforming – das Verfahren diszipliniert und organisiert das Denken in Richtung konstruktiver, verbessernder Transformationen, die dem Inhalt und strategischen Zielen der Aufgabe entsprechen. Der gesamte Umfang des Wissens, der in Bezug zu den Motiven, Zielen und Verfahren der Kreativität des Menschen steht, lässt sich nur schwer in einem einheitlichen Schema darstellen. Dennoch ist das vom Autor entwickelte und
316
Entwicklung der TRIZ
unten dargestellte Schema durchaus übersichtlich und konstruktiv. Anhand dieses Schemas lassen sich konkrete Stufen bei der Entwicklung von Methoden der Kreativität und die Verbindung dieser Entwicklung mit der naturhistorischen Evolution der Gesellschaft und Natur gut erkennen. Dieses Schema differenziert rationell das Wissen von der Kreativität. Und was besonders wichtig ist, es sind darin Möglichkeiten für die Zukunft einer gerichteten Entwicklung dieses Wissens akkumuliert. Mikrorhythmik der Generation von Ideen (Alpha-Rhythmik)
POSITIVE DOMINANTEN (OPTIMISMUS):
Bewegungsrichtung der psychologischen Zeit (aufsteigender Strom)
ZUKUNFT (Pro-fiction)
AKTUELLE ZUKUNFT (Prospect)
NEGATIVE DOMINANTEN (PESSIMISMUS):
konstruktive Transformationen, Streben in die Zukunft,
konservative Transformationen,
AKTUELLE GEGENWART (2 – 3 s)
Angst vor der Zukunft,
aktive (Angriffs-) Strategie, Verstehen der Vergangenheit Bewegungsrichtung der realen Zeit (absteigender Strom)
passive (Schutz-) Strategie,
AKTUELLE VERGANGENHEIT (Retrospect)
GESCHICHTE (Retro-fiction)
Schuld an der Vergangenheit
Makrorhythmik der Generation von Ideen
Prof. M.Orloff, 1987, 1995, 2001, 2006
Abb. 20.4. Emotional-intellektuelle Dynamik des kreativen Denkens
Bei der Entwicklung unserer neuen Software erhielt dieses Schema die metaphorische Bezeichnung PentaCORE. Fünf Kerne – PentaCORE – bieten uns die strategische Grundlage einer konstruktiven Analyse und Synthese von Kreativitätstechnologien für die praktische Gegenüberstellung und integrierte Anwendung „alter“ und neuer Methoden. Die fünf Symbole, die wir im PentaCORE verwendet haben, wurden den Begriffen entnommen, die den entsprechenden Komponenten des PentaCORE bildlich entsprechen.
20 Auswahl einer Strategie: Mensch oder Computer?
317
Wollen wir nun gemeinsam das PentaCORE konstruieren. Beginnen wir mit dem zweiten Buchstaben – „ȼ“. Den Schlüsselbegriffen – Brainstorming und Brainwave. Für unsere Zwecke scheint es angebracht, alle Methoden, die auf Annahmen und freie Assoziation, dem Flug der Phantasie und willkürliche Analogien beruhen als „Brainstorming“ zu bezeichnen, die das Brainwave als Ergebnis haben. Vom Wesen her sind das Methoden des Denkens mit der rechten Hemisphäre, des künstlerischen Denkens. Unabhängig von den konkreten Versionen, wird das Brainstorming oft als Methode des „Versuchs und Irrtums“ bezeichnet. Jedoch wurde die absolute Mehrheit der Erfindungen in der Menschheitsgeschichte eben mit dieser, man kann sagen „experimentell-kreativen Methode“ gemacht. Wäre es da nicht richtiger, sie als Methode des „Versuchs und des Erfolgs“ zu bezeichnen! Auf jeden Fall können alle Versionen dieses Verfahrens in einen B-Kern zusammengefasst werden (Abb. 20.5). Es ist natürlich auch möglich, das Symbol ȼ mit dem Namen des Psychologen und Pädagogen, Wissenschaftlers und Schriftstellers Edward de Bono, zu verbinden der schon länger als 30 Jahre diese Klasse von Methoden erfolgreich entwickelt hat. Er gab ihr sowohl den Charakter der rationell gerichteten Suche, als eine Abb. 20.5 Nuance des Spielerischen und Scherzhaften. Die Ideen von de Bono, wie auch die Ideen von Genrich Altschuller sind noch lange nicht erschöpft, und wir werden sie nicht nur im Rahmen des B-Kerns nutzen. Der B-Kern ist eng mit dem Kern verbunden, dessen wissenschaftliche Erkenntnisse erst in den letzten 30-40 Jahren zu konstruktiven Ergebnissen führten. Dieser Kern akkumuliert in sich das Wissen über die Psyche und Psychologie des Menschen. Als Schlüsselbegriff haben wir den Begriff Dominanten (dominant, dominance) gewählt, welcher dem Kern den Namen D-Kern gab. Rein intuitiv war das den führenden Denkern aller uns bekannten Epochen der Menschheitsgeschichte vollkommen bewusst. Die andere Seite ist, welche konstruktiven, d.h. praktischen und resultativen Empfehlungen konnten sie uns geben. Solche Empfehlungen hatten meist den Charakter einer philosophischen Auslegung, einer hauptsächlich kontemplativen und bildhaften Beschreibung eines Prozesses und einzelner Erscheinungen des schöpferischen Aktes. Dennoch wurden in den letzten Jahrzehnten mit der Entwicklung der Lehre von den Dominanten, der Rolle und der Organisation des Zusammenwirkens der verschiedenen Teile des Gehirns, die Voraussetzung für die Erarbeitung von Instrumenten für die Steuerung und Unterstützung schöpferischen Handelns geschaffen. An dieser Stelle wollen wir auf die offensichtlich hierarchisch gestalteten wechselseitigen Beziehungen dieser beiden Kerne D hinweisen (Abb. 20.6), die sich gemeinsam und untrennbar miteinander verbunden seit mehr als 1000 Jahren entwickelt ȼ haben. Und dennoch hatten die „alten“ Methoden des B-Kerns und erst recht des D-Kerns folgende Mängel: der zufällig, wenig gesteuerte Charakter der Suche nach neuen Ideen und die Unmöglichkeit der Weitergabe gesammelter Erfahrungen. Abb. 20.6
ȼ
318
Entwicklung der TRIZ
Durch den rasanten Fortschritt von Technologien und das enorme Wachstum des Wissens seit der Mitte des XX. Jh., wurde es nötig, adäquate Methoden des Schöpfertums zu entwickeln. Methoden, die auf Gesetzmäßigkeiten der Evolution technischer System, Gesetzmäßigkeiten der Entwicklung von Erfindungen auf höchstem Niveau basieren. Ein solcher Ansatz wurde von der TRIZ angeboten, die auf dem Fundament systematischer Untersuchungen des Wissens, welches im Patentbestand der ganzen Welt akkumuliert ist, basiert. Der Konstruktivismus dieser Konzeption bestand darin, dass man für die Schaffung von Methoden und Theorien des Erfindens, konkrete Verfahren und Regeln, Modelle und Ressourcen, Bedingungen und Hindernisse herausstellen musste, die dann zur Schaffung hocheffektiver Erfindungen führten. Vom Wesen her handelt es sich hier um Methoden des Denkens mit der linken Hemisphäre, des logischen Denkens. Seine Hauptmethode nannte Genrich Altschuller „Algorithmus der Lösung erfinderischer Aufgaben“. Daher, aber auch vom Namen des Autors der TRIZ, kommt die Bezeichnung für den Kern algorithmischer (algorithm, algorithmic) Methoden – A-Kern. Es ist klar, dass diesem Ansatz die Methoden der systematischen Konstruktion und Methoden der mathematischen D (computergestützten) Synthese technischer Lösungen in CAD B sehr nahe stehen. So haben wir es hier insgesamt gesehen mit A einer neuen Klasse von Methoden zu tun, die uns eine Strategie der gerichteten Lösungssuche bietet und mit logischen Modellen operiert. D.h. hier handelt es sich um Abb. 20.7 einen neuen Kern von Methoden vorrangig des Denkens mit der linken Hemisphäre. Und genau die Methoden des A-Kerns werden zum Dreh- und Angelpunkt für alle anderen Kerne und müssen als unbedingt notwendiger Kern in sie integriert werden. In der zweiten Hälfte des 20. Jahrhunderts haben sich die Probleme des Erhalts der natürlichen Umwelt, der Gewährleistung einer harmonischen und humanistischen Entwicklung der Menschheit, der Verhinderung von Kriegen und des Terrors, der Vorbeugung von Verbrechen, der Notwendigkeit einer Angleichung der Entwicklung verschiedener Regionen der Welt äußerst verschärft. Die Probleme der positiven Evolution der Zivilisation standen bei den führenden Denkern immer im Mittelpunkt, zu jeder Zeit der Menschheitsgeschichte. Jedoch haben zu Beginn des III. Jahrtausends die negativen Probleme einen solchen Charakter angenommen, dass ihre Lösung keinen Aufschub mehr erlaubt. Die globalen Probleme können nur auf der Grundlage neuer Erfindungen und Entdeckungen gelöst werden. Im E-Kern (Abb. E 20.8) stellen wir Methoden und Modelle heraus, die mit D Schöpfertum zu tun haben und direkt auf die Evolution der B Natur und Zivilisation gerichtet sind. Die Schlüsselbegriffe sind A Evolution (evolution) und Ökologie (ecology). Ende der 1980er Jahre haben wir die Konzeption der Integration der A- und BKerne als einander ergänzende Instrumentarien entwickelt. Dieser Ansatz entspricht einem der konstruktivsten Verfahren Abb. 20.8 der TRIZ – der Integration alternativer Systeme.
20 Auswahl einer Strategie: Mensch oder Computer?
319
So benutzen wir Verfahren der TRIZ für ihre eigene Weiterentwicklung. Dennoch bedarf eine begründete und koordinierte Anwendung von Methoden aus unterschiedlichen Kernen einer weiteren Entwicklung und der experimentellen Überprüfung spezieller Modelle und Algorithmen. Um die modernen Erkenntnisse des D- und EKerns effektiv nutzen zu können, müssen auch inE strumentelle Modelle und Methoden entwickelt werden. Diese Methoden müssen progressive Ziele D und kategorische Grenzen der Evolution berückC sichtigen. Sie müssen eine positive Motivation der B Persönlichkeit bewirken und die schöpferischen Möglichkeiten der Menschheit wesentlich erhöhen. A Wir denken, dass sich diesen Problemen in Zukunft viele neue Erfinder widmen werden. Deshalb hat PentaCORE noch einen Kern, den C-Kern, für konAbb. 20.9 struktive und Integration von Modellen und Methoden der Steuerung (Abb. 20.9). Die Schlüsselbegriffe sind hier Herausforderung (challenge) und Konstruktivismus (constructivism). Im letzten Begriff verbinden wir zusammengesetzte positive, schöpferische Modelle und Verfahren, die in Opposition zu destruktiven Tendenzen stehen, die in der Gesellschaft und nicht selten auch in der Psyche der Menschen anzutreffen sind. Mit diesem Begriff verbinden wir unseren Wunsch nach der Entdeckung von etwas Neuem und gleichzeitig absolut Nützlichem, im wahrsten Sinne des Wortes Konstruktivem, wie es besonders in den Ursprüngen des russischen künstlerischen und architektonischen Konstruktivismus der ersten Hälfte des 20. Jh. war, der zur Zeit des Europäischen Konstruktivismus entstand und später im Schaffen vieler international bekannter Maler, Schriftsteller, Komponisten, Ingenieure und Architekten seinen Ausdruck fand. Nun am Ende dieses Abschnitts ordnen wir die Systeme so an, dass sie der Asymmetrie des Gehirns entsprechen (Abb. 20.10).
R
E
L
Ecological Thinking
C
D
Challenge Thinking
Dominant Thinking
A Algorithmic Thinking
B Brainstorming Thinking
Abb. 20.10. Verbindung der Hauptsysteme des
PentaCORE mit der Asymmetrie des Gehirns
Prof. M. Orloff, 2001, 2006
320
Entwicklung der TRIZ
Die wesentlichen Teile des Lehrbuchs sind der Analyse und Systematisierung der Methoden des A-Kerns und im notwendigen Maße den Methoden des C-Kerns gewidmet (in den Abschnitten „Meta-Algorithmus des Erfindens“ und „Strategie und Taktik des Erfindens“). Die Methoden des B-Kerns werden in abstrakter Form in den Abschnitten „Methoden der Kreativität“ und „Die Kunst zu erfinden“ behandelt. Der Grund dafür ist, dass zu den Methoden des B-Kerns bereits relativ viel veröffentlicht wurde. Ungeachtet dessen, dass in der Bibliographie nur eine eingeschränkte Anzahl von Veröffentlichungen zu dieser Thematik, die wir für unsere Arbeit brauchten, angeführt ist, wird Ihnen diese Liste weiterhelfen andere Arbeiten zu dieser Thematik zu finden. Die Ideen und Methoden des D- und EKerns sind fragmentarisch dargestellt, eben in dem Maße, wie sie die Methoden der A-, ȼ- und ɋ-Kerne berühren. Der eingeschränkte Umfang des Lehrbuchs gestattet es nicht, diesen Modellen die eigentlich nötige Aufmerksamkeit zu widmen.
21 CAI: Computer Aided Innovation / Invention 21.1 Von der Invention Machine zum CoBrain In Minsk (Hauptstadt der Republik Belarus, eine der ehemaligen Unionsrepubliken der UdSSR) wurde Ende der 1980er Jahre nach ca. 7-jähriger experimenteller Arbeit die absolut innovative Software Invention Machine (Erfindungsmaschine) entwickelt. Die Initiative dafür ging von einer Gruppe unter Leitung von Dr. V. Zurikow, einem Spezialisten der TRIZ und Wissenschaftler auf dem Gebiet der künstlichen Intelligenz, aus. Bis 1991 wurden mehr als 2000 Exemplare der Software verkauft. Mit dem Zerfall der UdSSR wurde die Arbeit des sich selbst finanzierenden Unternehmens „Invention Machine Laboratory“ äußerst kompliziert. Valeri Zurikow reiste in die USA aus und gründete 1992 das Unternehmen Invention Machine Corp., während die Programmierung der neuen Windows-Version weiterhin in Minsk erfolgte. Das Jahr 1995 war für das Unternehmen äußerst erfolgreich. Man konnte Verträge mit der Firma Motorola im Wert von 3 Mio. Dollar abschließen. 1996 folgten Verträge mit Mitsubishi über den Erwerb der Invention Machine in Höhe von 18 Mio. Dollar. 1997 erschien eine erweiterte TRIZ-Software der Invention Machine unter der Bezeichnung TechOptimizer. Die weite Verbreitung der Software TechOptimizer führte dazu, dass die TRIZ in der ganzen Welt bekannt wurde und die Firma Invention Machine Corp. die Spitzenposition im Bereich des CAI – Computer Aided Innovation / Invention erringen konnte. Zu Beginn des Jahres 2001 ist der TechOptimizer das beste System auf der Basis der TRIZ. Den instrumentellen Teil des Systems bilden vier Subsysteme, die auf TRIZ-Modellen beruhen: das „Principles Module“ – realisiert die A-Matrize und den A-Katalog; das „Prediction Module“ – realisiert die TRIZ-Gesetzmäßigkeiten der Systementwicklung und Originalmodelle für Transformationen, welche die Modelle vom Typ „Standards“ detaillieren und weiterentwickeln; das „Effects Module“ – beinhaltet eine Datenbank mit technischen Effekten
21 CAI: Computer Aided Innovation / Invention
321
und das „Feature Transfer Module“ – realisiert die Methode der Integration alternativer Systeme. Besonders wertvoll ist das Subsystem „Effects Module“. Darin wurden mehr als 4400 (!) Effekte aus unterschiedlichen Wissensbereichen akkumuliert. Die Subsysteme „Product Analysis Module“ und „Proɫess Analysis Module“ basieren auf Modellen der Funktions-Kosten-Analyse und helfen, das Problem richtig zu formulieren. Letztendlich ermöglichte das Subsystem „Internet Assistant Module with Patent Analyzer“ erstmals den Zugriff auf bekannte Patentbestände unmittelbar aus dem Bereich der TRIZ über das Internet. Unser Lehrbuch wird Ihnen, ohne Zweifel, bei der Arbeit mit dem TechOptimizer aus folgenden Gründen behilflich sein: 1. Um mit der Software TechOptimizer arbeiten zu können, müssen Sie bestimmte Kenntnisse der TRIZ erworben haben. In dieser Beziehung bietet dieses Lehrbuch die notwendigen Fakten für die Arbeit mit den TRIZ-Subsystemen „Principles Module“, „Prediction Module“, „Effects Module“ und „Feature Transfer Module“; 2. Eine wesentliche Hilfe kann für den Anwender der Software TechOptimizer die Kenntnis des Meta-ARIZ und seiner Strategien der gerichteten Lösung von Problemen bei Innovationen sein, da der TechOptimizer einen solchen allgemeinen Navigator nicht enthält; 3. Kenntnisse über die Diagnostik eines Problems, Strategie und Taktik des Erfindens und die TRIZ-Gesetzmäßigkeiten der Entwicklung von Systemen helfen dem Anwender bei der Arbeit sowohl mit den Subsystemen „Product Analysis Module“ und „Proɫess Analysis Module“, als auch mit den TRIZ-Subsystemen. Zum Ende dieses Abschnitts möchten wir noch darauf hinweisen, dass die Firma Invention Machine Corp. zwei neue Systeme entwickelt hat – Knowledgist und CoBrain. Beide Systeme sind starke semantische Prozessoren und dienen der Suche nach Wissen in Patentschriften und anderen elektronischen Informationsquellen. Das System Knowledgist hilft dem Anwender, mit den Daten aus dem „Effects Module“ in natürlicher Sprache zu arbeiten, dabei ermittelt das System durch eine Synonyminterpretation für den Anwender die passendsten Abschnitte und Beispiele. Das System CoBrain ist äußerst perspektivreich für die schnelle Durchsicht und Analyse von Patentbeständen zur Suchen nach Analogien und für die Prognose der Entwicklung eines Bereichs oder die Bewertung der Konkurrenzfähigkeit von Produkten. So orientiert sich die Software der Firma Invention Machine Corp. auf die erste und zweite fundamentale Richtung des TRIZ-Wissens – die Entwicklung vor Verarbeitungssystemen für Wissen in der innovativen und erfinderischen Tätigkeit, besonders für die Integration mit Systemen der Unterstützung von Projektierung, Steuerung und wissenschaftlicher Forschung. Die Kenntnis der TRIZ-Gesetzmäßigkeiten und der Entwicklungsmodelle von Systemen entsprechend dem Abschnitt „Strategie und Taktik des Erfindens“, die Methode des Re-Inventings und Modelle der Strukturierung der operativen Zone helfen Ihnen, die notwendige Zielorientierung bei der Arbeit mit den Systemen Knowledgist und CoBrain zu finden.
322
Entwicklung der TRIZ
21.2 Vom Problem-Formulator zur Innovation Workbench Der führende Theoretiker der TRIZ, der Pädagoge und TRIZ-Schriftsteller Boris Zlotin durchlief einen langen Weg der Kreativität gemeinsam mit dem Begründer der TRIZ Genrich Altschuller. Dieselben Gründe, die im vorigen Abschnitt erwähnt wurden, führten 1992 auch dazu, dass B. Zlotin mit seiner Schule in die USA auswanderte und dazu, dass die Firma Ideation International Inc. unter seiner Beteiligung aufgebaut wurde. Zlotins Consultingtätigkeit machte die TRIZ in den USA recht schnell bekannt, und er wurde gemeinsam mit Zurikow und seiner Firma zu einem bedeutenden Katalysator sowohl der Anwendung der TRIZ als auch des schnellen Wachstums von Consulting- und Lehrfirmen der TRIZ. Und so nahm eine ganze Reihe von TRIZ-Spezialisten aus Russland in den USA bald schon an der Wiederbelebung des TRIZ Journals teil (1996), der früher einzigen TRIZ-Zeitschrift in der UdSSR, die seit 1990 ein bis zwei mal im Jahr erschien (zum Vergleich – heute in den USA 12 mal pro Jahr!). Die Firma Ideation International Inc. hat seit Mitte der 1990-er Jahre mehrere Softwaresysteme auf den Markt gebracht, darunter Problem Formulator, Innova-tion Situation Questionnaire, Ideator, Improver, Anticipatory Failure Determi-nation (AFD), Knowledge Wizard, Innovation Workbench. Auf die eine oder an-dere Art basieren alle Systeme der Familie TRIZ-Soft der Firma Ideation International Inc. auf klassischen TRIZ-Modellen der Transformation, obwohl sie auch andere originelle Instrumente beinhalten, besonders das System AFD, das für die Analyse und Vorbeugung von Erscheinungen bei Systemdefekten bestimmt ist. So zielt die Software der Firma Ideation International Inc. auf die zweite (und teilweise auf die dritte und vierte) fundamentale Entwicklungsrichtung des TRIZ-Wissens – die Entwicklung universeller und spezieller angewandter Systeme auf der Basis der TRIZ. Das Erlernen der Grundlagen der klassischen TRIZ mit Hilfe dieses Lehrbuchs und besonders des Meta-ARIZ und der Modelle der Systementwicklung hilft Ihnen dabei, wenn nötig, sich schnell die meisten der erwähnten Systeme der Firma Ideation International Inc. anzueignen. 21.3 TRIZ Idea Navigator™: Integration der Intellekte Die oben vorgestellten Software Produkte sind für große Unternehmen konzipiert, die in der Lage sind, dauerhaft TRIZ-Trainings für ihre Mitarbeiter zu organisieren. Die Anwendung solcher Systeme in mittleren und kleinen Unternehmen gestaltet sich recht kompliziert, da eine längere Vorbereitung sowohl zu den Grundlagen der TRIZ als auch zu der recht großen Anzahl unterschiedlicher systemtechnischer Methoden und Modelle, die außerhalb der TRIZ liegen, notwendig ist. Alle oben erwähnten Produkte haben kein einheitliches Navigationssystem für die Suche nach erfinderischen Ideen und innovativen Lösungen, und sie haben keine speziellen Mittel der psychologischen Unterstützung des Denkprozesses.
21 CAI: Computer Aided Innovation / Invention
323
Um die TRIZ kleinen und mittleren Unternehmen besser zugänglich zu machen, haben wir vor kurzem damit begonnen, eine möglichst einfache Software zu entwickeln. Zum Zeitpunkt der Vorbereitung dieses Buches für die dritte Auflage lagen mehrere Versionen einer neuen Software mit der allgemeinen Bezeichnung Idea Navigator vor. Alle Versionen basieren auf dem Meta-Algorithm of Invention (MAI) und verwenden die „standardisierte“ Form MAI für das Studium und das Generieren von Ideen durch die Nutzer mit Hilfe von Beispielen, die in der Datenbasis der Software akkumuliert sind. Wir wollen hier zwei Beispiele der „einfachsten“ Software Idea Navigator und ihrer perspektivischen Version betrachten. 21.3.1 Idea Navigator™ EasyTRIZ™ Diese Software wurde auf der Basis der einfachsten Version des MAI entwickelt mit der Bezeichnung SMART (Simplest Meta-Algorithm of Resourceful Thinking) – einfachster Meta-Algorithmus des erfinderischen Denkens. Dieser Algorithmus (Abb. 21.1) wird von uns unter der Bezeichnung SMART2000 T-R-I-Z oder SMART T-R-I-Z bereits mehrere Jahre lang (wie der SMART seit Ende der 1990-er) auf Trainings und bei realen Projekten zur Lösung von Problemen als „computerlose“ Methode eingesetzt. Spezielle Erfahrungen und Beobachtungen der Arbeit von Personen, die gerade erst mit dem Studium der TRIZ begonnen haben, führten zu der Idee der Schaffung einer „einfachsten“ TRIZ-Software Idea Navigator™ EasyTRIZ™. Zu einem der wichtigsten methodischen Ziele wurde die Idee, eine solche Verbindung von Bezeichnungen der Etappen zu wählen, die eine ausreichend „durchdachte“ und einprägsame Deutung der Abkürzung TRIZ für einen breiten Anwenderkreis gewährleisten. Besonders für junge Menschen – für Schüler und Studenten wurden die Bezeichnungen Targeting – Reducing – Inventing – Zooming ausgewählt, die als Abkürzung TRIZ ergeben. Und so wurde die erste Etappe des MAI die „Diagnostik“ im SMART T-R-I-Z als Targeting – „Anvisieren“ bezeichnet. Eine der wichtigsten Aufgaben der Diagnostik besteht wirklich in der Definition des Ziels und der Richtung – Target & Trend – der Entwicklung eines Systems und der Lösung von Problemen, die mit der Beseitigung von Mängeln und Gründen, die einer Entwicklung entgegen stehen, verbunden sind. Die zweite Etappe nennt sich Reduction, was den Hauptzweck dieser Etappe im MAI entspricht, und nicht zusätzlich erklärt werden muss. Die dritte Etappe wurde als Inventing bezeichnet, was auch voll und ganz den Zielen und Handlungen in dieser Etappe entspricht. Die vierte Etappe heißt Zooming, was äußerst effektiv als Studium einer neuen Idee mit anderen Maßstäben und in verschiedenen Systemumgebungen interpretiert werden kann, ähnlich wie das Studium geografischer Ortsbestimmungen auf Karten unterschiedlichen Maßstabs oder ähnlich dem Zoomen bei Einstellungen von Fotoapparaten oder Videokameras auf das Objekt
324
Entwicklung der TRIZ
der Aufnahme. Das detaillierte Studium einer Idee kann durchaus als Vergrößerung des Maßstabs und Annäherung des Objekts der Aufnahme bezeichnet werden, und das Studium der Umgebung eines Systems oder eines Supra-Systems kann man als Verringerung des Maßstabs interpretieren. Und der Begriff „Zooming“ selbst ist durch das Auftauchen von Systemen der Computergrafik und von digitalen Fotoapparaten und Videorekordern bereits recht gut bekannt geworden.
TARGETING Ausgangssituation
Faktor 1 oder Z
Entwiclkungsmethode
Faktor 2 oder Z
Was – Wo – Wann
Wozu Ziel der Verbesserung
Wie Verbesserungsversuche
Warum Ursache des Problems
REDUCING 1. Faktor verbessert sich
2. Faktor verschlechtert sich
FIM RadikalWiderspruch
StandardWiderspruch
(-Z)
(+Z)
INVENTING AF-Katalog
AS-Matrize
AS-Katalog
ZOOMING Ist der Widerspruch beseitigt ? Gibt es Super-Effekte ?
IDEE
Entwicklung ? Gibt es Verandärungen in der Umgebung ?
Abb. 21.1. SMART T-R-I-Z: Targeting – Reducing – Inventing – Zooming
Der Algorithmus SMART T-R-I-Z hat sich zunächst im Verlaufe mehrerer Jahre in verschiedenen Ländern in seiner „computerlosen“ Form (Abb. 21.2) bewährt. Dabei stellte sich heraus, dass sich dieses Schema als nützlich und anwendbar auch für erfahrene Nutzer bei der Expresslösung von Problemen und der standardisierten Darstellung des Lösungsprozesses bei der „computerlosen“ Arbeit, sozusagen mit einem Blatt Papier, erwies. Die zweite methodische und Marketingidee für die EasyTRIZ™ bestand darin, eine Software „auf nur einem Bildschirm“ zu schaffen! Das sollte eine Software für nur einen einzigen Bildschirm sein, für das QuerDurchlaufen des Algorithmus MAI bei der Lösung „aller“ Probleme – und mehr nicht! Hierbei muss die geringe Anzahl von sich öffnenden Hilfsfenstern nicht berücksichtigt werden. Jedoch soll das Schema des Algorithmus T-R-I-Z die ganze Zeit auf dem Bildschirm vorhanden sein und „für immer“ eingeprägt werden.
21 CAI: Computer Aided Innovation / Invention
NUMBER _______ TITLE ________________________________________ DIAGNOSTI CS
TARGETING R
EDUCING REDUCTION OZ & Re source s: ___________________________________________________________________ pre-OT: ____________________ OT: ______________________________ post-OT: _____________ Inductor: _____________________________ Receptor: ____________________________________ IFR: ______________________________________________________________________________ Macro-FIM: X-resource, without producing the inadmissible negative effects, provides toget her with other existing resources obtaining [ ____________________________________________________ ]. Micro-FIM: ___________________________________ Maxi-FIM: ____________________________ Standard contradiction General contradiction Technical Contradiction Model
Navigators
Factors
+
-
Fundamental contradiction Physical Contradiction Radical contradiction must be
& must be or & m. not be
ITRANSFORMATION NVENTING
Z OOMING VERIFI CATION Cont radictions are removed? – Yes. – No. Super-effects:______________________________________________________________________ Negative effects: ___________________________________________________________________ picture
BRIEF DES CRIPTION
Abb. 21.2. Vordruck für die „computerlose” Arbeit auf der Grundlage des Schemas SMART T-R-I-Z
325
326
Entwicklung der TRIZ
Die Software wird von einem einfachen jedoch stringent organisierten Lehrbuch mit dem Titel EasyTRIZ86 unterstützt. Ein Screenshot des Hauptfensters der Software Idea Navigator™ EasyTRIZ™ ist in Abb. 21.3 dargestellt. In dieser Software werden auch neue Bezeichnungen für die „klassischen“ Begriffe „Technischer Widerspruch“ und „Physikalischer Widerspruch“ verwendet. Die „klassischen“ Bezeichnungen für die binären Modelle von Widersprüchen passen in vielen praktischen Situationen, die sich nicht auf technische Objekte beziehen, nicht. Als Ausweitung des Begriffes „technischer Widerspruch“ sind im englischen die Begriffe „General contradiction“ und auch „Standard contradiction“ durchaus passend. In beiden Fällen besteht der Sinn der neuen Bezeichnung darin, erstens auf das Verfahren der Zusammenstellung des Widerspruchsmodells, bei dem sich zwei beliebige Eigenschaften im Konflikt befinden können, hinzuweisen. Das heißt, es handelt sich hier um ein Modell der aller allgemeinsten – general – Form. Und zweitens soll auf ein Verfahren der Lösung eines Widerspruches hingewiesen werden, das eine Auswahl passender „standardisierter“ Bezeichnungen der Konflikteigenschaften (Plus- und Minus-Faktoren) aus den 39 „standardisierten“ Faktoren, die zur Auswahl der „standardisierten“ Navigatoren (Verfahren) für die Lösung „konkret dieses“ Widerspruches führen, umfasst. Als Ersatz für den Begriff „physikalischer Widerspruch“ passt „fundamentaler Widerspruch“ oder „radikaler Widerspruch“. Erstens liegt das Modell dieses Widerspruchs in der Grundlage eines jeden „Standard-Widerspruchs“ und zweitens ist die Lösung dieses Widerspruchs, wenn das Problem nicht bereits auf dem Niveau des „Standard-Widerspruchs“ gelöst werden konnte, ausschließlich auf der Grundlage der Anwendung der vier fundamentalen Navigatoren – eines, zweier oder in anderen Kombinationen, möglich. Letzten Endes die Bezeichnungen „Standard-Widerspruch“ und „RadikalWiderspruch“ wurden nach langen Diskussionen und nach langer Suche eingeführt. Sie eröffnen jedoch die Möglichkeit einer universellen Anwendung in ausnahmslos jeder Situation und bei jedem Objekt ohne jegliche Erschwernisse und Probleme bei der Interpretation besonders bei Konflikten zwischen Personen. Bei entsprechender Ausweitung der Typen von Beispielen in der Software (oder bei der Erweiterung durch spezielle Lehrmaterialien) kann er zu einem universellen Mittel für das Studium der TRIZ von Schülern und Studenten sowie von Spezialisten unterschiedlichster Fachrichtungen werden. Die Vorbereitung und das Notieren von Informationen über den Prozess der Lösung einer Aufgabe wird auf einem Vordruck realisiert, dessen Struktur der Felder dem vollständigen SMART-Formular sehr nahe kommt (Abb. 21.2). Bestimmte andere Versionen der Software Idea Navigator verwenden auch den SMART T-R-I-Z.
86
www.easytriz.com
21 CAI: Computer Aided Innovation / Invention
327
Abb. 21.3. Screenshot für die „Ein-Bildschirm“-Software Idea Navigator™ EasyTRIZ™ auf der Grundlage SMART T-R-I-Z
328
Entwicklung der TRIZ
21.3.2 Idea Navigator™ HandyTRIZ™ Diese Software87 wurde auch auf der Basis SMART-2000 entwickelt. Im Unterschied zur EasyTRIZ™ beinhaltet die Software Idea Navigator™ HandyTRIZ™ Instrumente aus drei Studios A, B und C (Abb. 21.4) und orientiert sich auf eine professionelle Anwendung durch Ingenieure und Wissenschaftlern, die mit den Grundlagen der TRIZ vertraut sind. Jedes Studio verwendet dasselbe Schema MAI, jedoch mit „seinen“ speziellen Instrumenten. Das Studio A umfasst alle Haupt-A-Navigatoren. Es werden auch neue Instrumente verwendet, die in letzter Zeit auf der Grundlage der A-Matrix entwickelt wurden. Das Studio B umfasst die Methode „Dimension – Time – Cost“ („Dimension – Zeit – Kosten“) und die Tabelle für das Brainstorming. Das Studio C umfasst die populärsten Instrumente auf der Basis der Entwicklungslinien von Ressourcen. Die Arbeit in jedem Studio wird von einem Projekt-Navigator (Abb. 21.5) unterstützt, der automatisch Informationen notiert, die vom Anwender im Prozess der Lösung einer Aufgabe gemacht werden. Dabei wird die Registrierung beliebiger Informationen in ein und derselben standardisierten MAI-Struktur realisiert. Jedes Beispiel für die Erklärung der Wirkungsweise der einzelnen Navigatoren hat das MAI-Format (s. im Weiteren Beispiele 128 und 129). Damit wird ein standardisiertes Format für die Problemlösung sowohl für Anfänger als auch für professionelle Anwender vorgegeben. Spezielle sich öffnende Fenster werden für vorübergehende Notizen und für Notizen zu neuen Ideen verwendet. Alle Fenster können verborgen werden, wenn sie zeitweilig nicht verwendet werden (s. Abb. 21.5, in der das Fenster „Idee“ nur noch eine Linie ist). Das „führende“ Fenster ist das Fenster SMART-Navigator, das auf dem Bildschirm (Abb. 21.6) erscheint. Es hilft dem Anwender, sich leicht innerhalb der aktuellen Situation in einer bestimmten Etappe des MAI zu orientieren und das angewendete Instrument beim Lösungsprozess im Gedächtnis zu behalten. Wenn die SMART-Navigation zeitweilig nicht benötigt wird, verschwindet das Fenster vom Bildschirm. Zusätzlich zu den Instrumenten der erwähnten drei Studios realisiert das Fenster „Dominator“ (Abb. 21.5) auch eines der einfachsten Instrumente des DStudios. Speziell die psychologische Unterstützung auf der Basis einer Farbstimulation. In diesem Fenster kann der Anwender die Farbe einstellen, die vom ihm in dieser oder jener Etappe des MAI oder bei Anwendung eines bestimmten Instruments subjektiv bevorzugt wird. Man kann sagen, dass hier eine „Dynamisierung“ der bekannten Methode von de Bono Six Thinking Hats (Sechs Denkende Hüte) realisiert wird, da man die Farben für unterschiedliche „kreative Phasen“ ändern kann. Für Phasen der 87
www.handytriz.com
21 CAI: Computer Aided Innovation / Invention
329
Erholung oder Selbststimulation kann man das Fenster „Dominator“ über den ganzen Bildschirm öffnen. Äußerst wichtig ist der Umstand, dass die standardisierte Struktur MAI für die Navigation in allen Versionen der Software verwendet wird. Dadurch kann der Anwender leicht von einer Version zur nächsten übergehen, je nach Erfahrungen bei der Arbeit mit der vorherigen Version. Das Kombinieren von Instrumenten der drei Studios gibt dem Anwender sehr viel Freiheit bei der Steuerung des Prozesses der Problemlösung. Die Software Idea Navigator™ HandyTRIZ™ belegt eine Zwischenstellung zwischen der Software EasyTRIZ™, einer recht weit entwickelten Version des TRIZ PentaCORE™, die im Weiteren beschrieben wird.
Abb. 21.4. Screenshot des Bildschirms MAI der Software Idea Navigator™ HandyTRIZ™
330
Entwicklung der TRIZ
Fenster „Idee“ (geöffnet, jedoch reduziert)
Projekt-Navigator
Fenster „Dominator“
Abb. 21.5. Kopie des Bildschirms „A-Transformation“ der Software Idea Navigator™ HandyTRIZ™
21 CAI: Computer Aided Innovation / Invention
SC
SW SC
RW RC
Pop-up-Fenster „SMART“
Abb. 21.6. Kopie des Fensters „A-Katalog” der Software Idea Navigator™ HandyTRIZ™
331
332
Entwicklung der TRIZ
21.3.3 Idea Navigator™ TRIZ PentaCORE ™ Unten finden Sie die Darstellung der vergrößerten Struktur der Software Idea Navigator™ TRIZ PentaCORE ™ (Abb. 21.7 und 21.8), die unter Leitung des Autors entwickelt wurde und dem Anwender maximalen Komfort bei der kreativen Lösung technischer Probleme auf der Grundlage der Integration der stärksten in der Praxis bewährten Theorien und Methoden gewährt.
E-Studio 1. Philosophie der Technik;
Left-hemisphere
2. Evolutionsgesetze; 3. Erfindungen der Natur.
Right-hemisphere
Rational (scientific) Intelligence
Emotional (artistic) Intelligence
1. Empfindsamkeit für Widersprüche;
1. Empfindsamkeit für Harmonie;
2. Logisch-konsequentes Denken;
2. Ganzheitliches Denken;
3. Vermittelbare Erfarungen.
3. Niche vermittelbare Erfarungen.
C-Studio
D-Studio
1. Entwicklung von Systemen;
1. Temperament;
2. Funktional-strukturelle Synthese;
2. Emotionen;
3. Ressourcen.
3. Motivation.
A-Studio
B-Studio
1. Widersprüche;
1. Ganzheitliche Gestalten;
2. Physikalisch-technische Effekte;
2. Assoziationen;
3. Logic.
3. Intuition.
Abb. 21.7. Struktur der Software PentaCORE
Was die Gesamtheit der funktionalen Eigenschaften und das Niveau der Systemintegration betrifft, ist die TRIZ PentaCORE™ eine bahnbrechende Software, die keine Analogien kennt. Die Grundlage des Konzepts der Software TRIZ Idea Navigator™ PentaCORE™ (im Weiteren PentaCORE) bildet die fundamentale Idee der Integration des rational-logischen Intellekts mit dem emotionalen Intellekt. PentaCORE umfasst fünf instrumentelle Kernmodule (Abb. 21.8), die der Software ihren Namen gegeben haben und ein zentrales Modul der Navigation für das System allgemein. Die Module werden als Studios bezeichnet, und entsprechen Modellen und Instrumenten, die der Mensch bei kreativer Tätigkeit auswählt und anwendet.
21 CAI: Computer Aided Innovation / Invention
C - Studio: - TRIZEntwicklungsgesetze - Entwicklungslinien - Mehrfachbildschirm - Expansion – Kontraktion - Konturmodellierung - Diagramme - Ursache-Folge - Auswahl der operativen Zone - MA - Universelle Transformationen - Integration alternativer Systeme
E - Studio: - Ökologiegesetze - Gesetz der Evolution und Entwicklung der Natur, Gesellschaft und Technik - Einschränkungen des quantitativen Wachstums - Konzeptionen und Manifeste für das Überleben und den Fortschritt
A - Studio: - Integration von Widersprüchen - Ⱥ-Matrize und ȺKatalog der Verfahren - CICO - Algorithmus der Auswahl und Katalog der Ⱥ-Standards - Ⱥ-Katalog der fundamentalenTransformationen - Komplexe Transformationen - Ressourcenauswahl - Effekte
D - Studio: - Denker-Künstler - Optimist-Pessimist - Vier RollenVersionen von Disney, Dumas und Hypokrates - Farbmotivator - Audiomotivator - Humormotivator - Integrierter Motivator - Überwinden psychologischer Trägheit - Überwinden von Konflikten - NLP-D
B - Studio:
F - Modul: - Mega-Navigator - Meta-Navigator (Meta-ARIZ) - Systemsteuerung - Internetlinks (KnowledgeTransfer) - NLP-NDNT
Abb. 21.8. Struktur der PentaCORE Studios
- funktional ideales Modellieren - Größe-Zeit-Kosten - Modellieren mit kleinen Figürchen - Schritt zurück - Mind-Mapping - Lateral Thinking - MCQ - Brainstorming - MFO - Palette von da Vinci - Einsteins Geige - NLP-B
Prof. M.Orloff, 2001
333
334
Entwicklung der TRIZ
Die wichtigsten Modelle und Instrumente der Studios finden Sie in Abb. 21.2, im PentaCORE heißen sie Navigatoren (s. Abschn. 6 Von der Praxis zur Theorie). Einige Schlüsselnavigatoren beinhalten Know-How und können deshalb hier nicht aufgeführt und erklärt werden. Eine wichtige Rolle bei der Integration von Intellekten spielen zwei Navigatoren aus dem Steuerungsmodul F-Modul: Ɇega-Navigator und Meta-Navigator. Die Bezeichnung F für das Modul ergibt sich aus der direkten Beziehung zu dem Grundbegriff der abstrakten Algebra und der konstruktiven Mathematik Functor (komplizierte Transformation, welcher der Meta-ARIZ direkt entspricht) und aus der Definition Frontal, die assoziativ auf die Verbindung mit frontalen (Stirn-) Bereichen des Gehirns hinweist, welche für das Generieren von Ideen zuständig sind (s. Abb. 20.3, 20.4 und 20.10). Der Mega-Navigator basiert auf der Tabelle zur Strategie- und Denkstilauswahl (verkürzt in Abb. 21.9). Strategic Level of Thinking „Operator“
Strategic Style of Thinking Thinker Rational Intellect A
Constructivist The Golden Mean AB
Artist Emotional Intellect B
„Tactician“
AC
ABCD
BD
„Strategist“
ACE
ABCDE
BDE
„Master”
Composite Neuro-Dynamical Navigator of Thinking (C-NDNT)
„Genius“
Personal Neuro-Dynamical Navigator of Thinking (P-NDNT)
Prof. M.Orloff, 2001
Abb. 21.9. Struktur der Mega-Navigation in der Software PentaCORE für die Integration rational-logischer und emotionaler Intellekte
Der Meta-Navigator realisiert die Funktion der Meta-ARIZ (s. Abschn. 7.2. Meta-Algorithmus des Erfindens). In der Darstellung (Abb. 21.10) wird in der Anwendungsanleitung für den Ɇeta-Navigator die Idee der Navigation des Denkens nach de Bono mit der Bezeichnung „Six Thinking Hats“ – „Sechs denkende Hüte“ einbezogen. Die Grundlage dieser Idee bildet die Steuerung des emotionalen Intellekts im Prozess der Suche nach einer Problemlösung. Der Metanavigator ist invariant, d.h. er hat eine leicht zu erkennende Struktur für alle Studios der Software PentaCORE. Dabei stützt sich der Meta-Navigator eines jeden Studios in den Phasen der Diagnostik und Reduktion auf Modelle und Empfehlungen der klassischen TRIZ, die in diesem Lehrbuch erläutert werden.
21 CAI: Computer Aided Innovation / Invention
rot
335
Functional Ideal Modelling Reduktion
Transformation
gelb
grün
Diagnostik schwarz blau
Verifikation weiß
Neuro-Dynamical Navigation
Prof. M.Orloff, 2001
Abb. 21.10. Struktur der Meta-Navigation der Software PentaCORE auf der Grundlage der Meta-ARIZ und der Darstellung nach der Methode „Six Thinking Hats“
Somit konzentriert sich die Software PentaCORE auf vier (von der zweiten bis zur fünften) fundamentale Entwicklungen des TRIZ-Wissens. PentaCORE ist ein universelles System auf der Basis der TRIZ, welches sowohl Methoden der psychologischen Unterstützung der innovativen und erfinderischen Tätigkeit als auch Modelle der Gesetzmäßigkeiten, Einschränkungen und das Ziel jedes ökologischen und sozialen Fortschritts integriert. PentaCORE verfügt über Mechanismen für die Integration anderer Systeme und die Unterstützung der Tätigkeit des Menschen, z.B. durch Schulungs-, Projektierungs-, Steuerungs- und Forschungssysteme. Unten sind zwei Beispiele angeführt, die die Hauptstufen des Re-Inventings und die Problemlösungen in der Software EasyTRIZ demonstrieren. Die beiden Beispiele illustrieren die Arbeit des spezialisierten A-Navigators 05 Ausgliedern. Da die Gestaltung dieses Buches in schwarz-weiß erfolgt, sind die Farben mit Hilfe von verschiedenen Abstufungen der grauen Farbe dargestellt. Bsp. 128. Ausflugs-U-Boot. Targeting & Trend Die Entwicklung eines autonomen Ausflugs-U-Boots erfordert große finanzielle Aufwendungen, die von einer großen Anzahl von Problemen der Gewährleistung von Sicherheit und Zuverlässigkeit begleitet werden. Deshalb führten letztendlich solche zu großen Kosten für die Dienstleistung am Kunden und fanden keine weite Verbreitung. Administrativer Widerspruch: was kann man tun, um eine kommerziell einträgliche Attraktion des Aufenthalts unter Wasser für Erholungssuchende, Sportler oder Wissenschaftler zu entwickeln?
336
Entwicklung der TRIZ
Reduction Vor allem muss der administrative Widerspruch in einen standartisierten überführt werden. Standard-Widerspruch (SW) 1: ein Ausflugs-U-Boot muss einfach bei der Nutzung sein, jedoch kann es wegen äußerer schädlicher Einwirkungen unsicher werden. SW 2: bei der Einfachheit der Nutzung muss das Boot preiswert sein, was bedeutet, unkompliziert in seiner Herstellung. OZ und führende operative Ressourcen: es stehen die funktionalen Eigenschaften des gesamten Systems insgesamt im Konflikt. Macro-FIM: eine X-Ressource, die das System absolut nicht verkompliziert und keine negativen Effekte hervorruft, dabei aber zusammen mit anderen vorhandenen Ressourcen gewährleistet: [preiswertes, sicheres, in der Nutzung einfaches Ausflugs-U-Boot].
Nr. SW
Modelle SW:
1
2
Wirkung, Zustand Objekt Ausflugs-U-Boot ( + ) - Faktor ( - ) - Faktor Nutzungs- 10 Nutzungs- Muss 13 Äußere 04, 05, 23, 29 freundlich freundlich- sicher schädliche keit sein Faktoren Nutzungs- 10 Nutzungs- Muss 07 Fertigungs- 05, 35, 37 freundlich freundlich- preisfreundlichkeit wert keit sein
Der Navigator 05 Augliedern tritt deutlich hervor. Inventing Idee nach Navigator 05: die nützliche Hauptfunktion (sich unter Wasser befinden) bleibt im Korpus des Boots und die Funktionen der Steuerung, Fortbewegung und Gewährleistung der Sicherheit wurden in ein Suprasystem ausgelagert, unter Anwendung eines Bugsierschiffs (X-Ressource). Dabei können die Passagiere die Tauchtiefe verändern und geringe Abweichungen vom Kurs des Bugsierschiffs realisieren. Im speziellen kann das U-Boot offen sein, und die Passagiere können Skaphander oder leichte Tauchanzüge tragen. Zooming Beide SW wurden beseitigt.
21 CAI: Computer Aided Innovation / Invention
337
Kurzbeschreibung Mit dem Ziel ein preiswertes und einfach zu nutzendes Ausflugs-U-Boot zu entwickeln blieb die nützliche Hauptfunktion (sich unter Wasser befinden) in der Konstruktion des Boots, und die Funktionen der Steuerung, Fortbewegung und Gewährleistung der Sicherheit wurden in ein Super-System ausgelagert, speziell wurden sie an ein Bugsierschiff übertragen (Navigator 05). Abb. 21.11. Ausflugs-U-Boot
Bsp. 129. Fliegende Zisterne. Targeting & Trend Beim Löschen von Bränden in Hochhäusern ist ein äußerst kompliziertes Problem, die Zufuhr von Wasser oder anderer Löschsubstanzen in die notwendige Höhe. Die Verwendung von Hubschraubern ist oft wegen der Gefahr mit den Flügeln in das Gebäude zu geraten, wegen der starken Rauchentwicklung und auch oft wegen der Gefahr der Entzündung der Hubschrauber selbst erschwert. Wie können die Möglichkeiten der Bekämpfung von Bränden in Hochhäusern verbessert werden?
Reduction Überführen wir vor allem den administrativen Widerspruch in einen standartisierten. Formulieren wir den SW in folgender Form: der Hubschrauber muss in notwendiger Höhe Wasser bekommen, darf aber sich nicht der Gefahr einer Havarie oder eines Unfalls aussetzen.
Nr. SW
Notieren wir diesen SW in tabellarischer Form:
1
Wirkung, Zustand, Objekt Hubschrauber ( + ) - Faktor ( - ) – Faktor Stellt Wasser 16 Länge des Darf sich 10 Nutzungsin notwendiunbeweg- nicht einer freundlichger Höhe zur lichen Unfallgefahr keit Verfügung Objekts aussetzen
05, 29
338
Entwicklung der TRIZ
Inventing Idee nach Navigator 05: Wasser oder andere Mittel zum Feuerlöschen in eine separate Zisterne ausgliedern, die an Seilen mit veränderlicher Länge an einem Hubschrauber befestigt sind. Dabei kann sich der Hubschrauber in sicherer Höhe über dem Gebäude befinden, und die Zisterne kann in eine Zone ausgegliedert werden, die maximal nahe zum Brand ist und kann entweder aus der Ferne oder durch eine spezielle Besatzung gesteuert werden. Die Zisterne kann über zusätzliche Manövriervorrichtungen verfügen.
Zooming Der SW wurde beseitigt. System-Supereffekt 1: viele Zisternen (und nicht teure Hubschrauber!) können für die Anwendung bereitgestellt werden. System-Supereffekt 2: die Zisternen können parallel zur Arbeit der eingesetzten Hubschrauber neu gefüllt werden.
Kurzbeschreibung Um Wasser oder andere Mittel zum Feuerlöschen in notwendiger Höhe eines Hochhauses zur Verfügung zu haben werden diese Mittel in einen separaten Behälter ausgegliedert, z.B. in Form einer Zisterne, die an Seilen mit veränderlicher Länge an einem Hubschrauber befestigt sind (Navigator 05). In die Zisterne können Mittel für das lokale Manövrieren für die optimale Annäherung an den Brandherd ausgegliedert werden. Abb. 21.12. Fliegende Zisterne
Schlusswort
339
Schlusswort Lösungen komplizierter Aufgaben aus der Praxis von Ingenieuren basieren nicht immer nur auf streng logischen Überlegungen oder Analogien. Sie sind hingegen meist intuitive Akte der Kreativität, die sich eben sowohl auf Logik als auch auf Analogien stützen. Die Instrumente der klassischen TRIZ, die wir im Lehrbuch vorgestellt haben, ermöglichen es, zumindest 70-75% aller „standardisierter“ Aufgaben beim Erfinden für die Vervollkommnung von Erzeugnissen und Technologien erfolgreich zu lösen. Bei ausreichender Erfahrung können durch Kombinieren dieser Instrumente nahezu 90% aller Aufgaben gelöst werden. Jedoch sind die verbleibenden 15-20% genauso bedeutend wie die anderen, da sie die Lösungen von sehr komplizierten und sehr wichtigen „nicht-standardisierten“ Aufgaben betreffen. Bei der Lösung einer jeden Aufgabe spielt ausgeprägte Vorstellungskraft eine gewaltige Rolle, wie auch die Fähigkeit, nicht-standardisiert zu denken, die Fähigkeit, nicht in Richtung des „Vektors der psychologischen Trägheit“ zu gehen und sich nicht von der scheinbaren Einfachheit des Erratens einer Lösung beeinflussen zu lassen. Die Instrumente der klassischen TRIZ stellen eine große Hilfe dabei dar, diese psychologischen Hindernisse zu überwinden. Was bleibt, ist noch die Motivation. Es ist kaum vorstellbar, dass jemand eine Lösungsidee findet, wenn er nicht wirklich bestrebt ist, die Aufgabe zu lösen, oder die Lösung für ihn nicht wirklich wichtig oder gar uninteressant ist. Die Grenzen der Möglichkeiten der TRIZ stimmen mit den aktuellen Grenzen der Erkenntnisse der Naturwissenschaften überein, da sich die TRIZ bei der Synthese von Ideen eben auf diese Erkenntnisse stützt. Dennoch überschreitet die TRIZ auch die Grenzen dieser Erkenntnisse, da sie Forschern und Ingenieuren hilft, diese Einschränkungen zu überwinden oder ihre Rahmen zu sprengen. Die vorgestellten und speziellen Methoden der TRIZ helfen bei der Lösung von Problemen beim Erfinden auch auf höchstem Niveau. Die klassische TRIZ ist eben deshalb klassisch, weil ihre Hauptprinzipien für immer als invariante Grundlage jeder ingenieur-technischen Theorie zur Synthese kreativer Lösungen unverändert bleiben. Das Systematisieren und Ordnen der Terminologie in diesem Lehrbuch bilden die erste Stufe einer künftigen Integration der TRIZ mit system-technischen und speziellen ingenieur-technischen Disziplinen. Die TRIZ muss zu einer untrennbaren Komponente jeder Theorie der Lösungssuche und jeder Theorie der Projektierung werden. Es ist absolut notwendig, die TRIZ-Konzepte und Instrumente in allen ingenieurtechnischen Disziplinen und an allen Hochschulen anzuwenden. Die Vermittlung der TRIZ sollte auch zu einem untrennbaren Bestandteil der Lehrprogramme an Schulen werden. Äußerst groß sind die Möglichkeiten der TRIZ auch bei der Entwicklung der Kreativität von Kindern, bei der Erziehung kreativer Persönlichkeiten. Es gibt unzählige Beispiele für die erfolgreiche Anwendung der TRIZ-Modelle bei der Organisation des Erziehungsprozesses und der unmittelbar spielerischen Aneignung der Schlüsselkomponenten der TRIZ bereits bei Kleinkindern.
340
Schlusswort
Die Integration der TRIZ in unterschiedlichste Tätigkeitsbereiche, die traditionell gesehen keinen technischen Charakter tragen, hat auch durchaus konstruktive Perspektiven. Die TRIZ kennt Beispiele ihrer erfolgreichen Anwendung bei der Lösung medizinischer Aufgaben, sozialer Probleme, von Problemen des Managements, der Organisation von Wahlkampagnen, der Gewährleistung von Zuverlässigkeit und Sicherheit technischer Objekte, von Projekten und Organisationen. Ganz allgemein möchte ich hier eine Aussage anführen, die innerhalb der Anhängerschaft der TRIZ sehr populär ist: Achtung! Das Erlernen der TRIZ kann die Kraft Ihres Denkens verändern! Wenn Sie sich bereits mit diesem Buch vertraut gemacht haben, kann es für diese „Warnung“ schon etwas zu spät sein. Dennoch glaube ich, dass Sie sich in diesem Fall von der Richtigkeit der Aussage überzeugt haben und nun auch andere Menschen davon überzeugen können. Um ihnen neues Rüstzeug im Kampf gegen entstehende Probleme anzubieten und um deren Fähigkeiten zu stärken, hervorragende Ideen zu finden. Und letztendlich auch, um ihnen zu helfen, neue freudige Erfahrungen im Leben machen zu können, eben durch die besondere Freude an kreativen Siegen. Die TRIZ lehrt und gewöhnt uns daran, in Paradoxen und Widersprüchen zu denken. Sie inspiriert uns mit begründetem Optimismus und gibt Zuversicht, auch die kompliziertesten „unlösbarsten“ Probleme zu lösen. Sie führt zu einer umfassenderen Sicht und zu einem besseren Verständnis der Welt, ihrer komplizierten Erscheinungen und Probleme. Durch logische Modelle und bildhafte Metaphern überwindet sie die Grenzen unserer Wahrnehmung der Welt, sie verbessert den Scharfsinn und die Flexibilität des Denkens. Es gibt natürlich viele Menschen, die von Natur aus talentiert sind. Es bestehen dennoch keine Zweifel daran, dass auch Ihnen die TRIZ sehr von Nutzen sein kann! Als ein Instrument! Als eine Theorie des systematischen Erfindens! Als ein bewährtes Modell des Denkens! Ich möchte an dieser Stelle noch einmal an die äußerst gelungenen Lösungen von Sir Norman Foster bei der Rekonstruktion des Reichstags (Bsp. 31) erinnern, zu der er offenbar auch ohne Kenntnis der TRIZ gelangt ist. Jedoch sind diese Lösungen derartig effektiv, dass sie einfach einem Reinventing unterzogen werden und in die „goldene Sammlung“ der TRIZ-Modelle aufgenommen werden müssen. So können dann kommende Generationen von Architekten bereits fertige Muster für die rationelle Synthese kreativer Ideen in ihre Projekte übernehmen. Eine der paradoxesten und gleichzeitig mutigsten Lösungen war hier die Gestaltung der Kuppel als Ort des ungehinderten Besuchs des Reichstags für alle Interessierten! Durch große durchsichtige Flächen im oberen Gewölbe des Saales können die Besucher die Abgeordneten dabei beobachten, wie sie das Schicksal der Nation beeinflussen. Es entsteht eine sehr angenehme Illusion, nämlich, dass Politik und Wirtschaft für jeden von uns vollkommen transparent sind! Jedoch gibt es ein weiteres, noch konzentrierteres Bild, das unsichtbar in der Kuppel vorhanden ist, wenn wir die umfassenden Beziehungen Aller betrachten, die zu diesem Gebäude ein besonderes Verhältnis haben. Eben die, aller freien
Schlusswort
341
Menschen in einer demokratischen Gesellschaft, welche die Möglichkeit haben, über den Abgeordneten zu stehen. Über diesen Abgeordneten, die unten eben für diese freien Menschen tätig sind. Und so erhält der Besucher in der Kuppel die Gewissheit, unter Gott zwar, aber über den Parlamentariern zu stehen. Es entsteht ein Modell der Demokratie, welches ich bei meinem ersten Besuch der Kuppel des Reichstags empfunden habe: Jeder steht über der Regierung, jedoch unter Gott. Und so schließt die erste Arbeit mit dem Lehrbuch auch eine wichtige Etappe des Eintritts in die Kunst der TRIZ ab. Beenden möchte ich dieses Lehrbuch mit den Worten des Teilnehmers eines meiner Seminare, der später zu einem geschätzten Kollegen wurde: Die klassische TRIZ – ist der Ausweg aus dem Sumpf des „Versuchs und Irrtums“ in das Meer des „Versuchs und Erfolgs“! Dennoch glaube ich, dass noch einige Worte an den unerfahrenen Leser, der erstmals der TRIZ begegnet ist, zu richten sind. Jeder Mensch widerspiegelt in sich in Hunderten Spiegeln seine Emotionen, Fähigkeiten, Motive, sein Wissen, seine Interessen und seine Handlungen. Jeder Mensch ist auf seine Art anders und hat ganz unterschiedliche Seiten. Er ist widersprüchlich in sich und hat die vielschichtigsten Beziehungen zu seiner Umwelt. Jedoch ist er immer auf der Suche nach Lösungen. Er sucht danach tagtäglich. Oft findet er sie. Manchmal aber auch nicht. Gute Lösungen werden nicht gerade oft gefunden. Und sehr gute oder geniale Lösungen gibt es nur äußerst selten. Kann denen geholfen werden, die bemüht sind, gute Lösungen zu finden? Denen, die nicht bereit sind, unnütz wertvolle Zeit ihres Lebens zu verschwenden, um blind, nur vom Gefühl her, zufällig, in unbegründeter Erwartung einer Erleuchtung oder eines unerwarteten Ereignisses, Lösungen zu suchen! Ja es kann. Solche Menschen brauchen unbedingt die TRIZ. Nur die TRIZ zeigt erstmals in der Geschichte der Zivilisation einen systematischen Weg auf, wie problematische Widersprüche gelöst und effektive Ideen gefunden werden können. Die Mentalität der TRIZ hilft in ihrer Konsequenz, auch andere Aspekte des Lebens effektiver zu organisieren. Sie hilft, Schicksalsschläge zu überstehen. Sie hilft auch oft, Probleme vorherzusehen und sie zu umgehen. Sie hilft in bislang ausweglosen Situationen Ressourcen zu finden! Das aber ist in starkem Maße von den persönlichen Eigenschaften der Menschen abhängig und von ihren Erfahrungen bei der Anwendung der TRIZ.
: Ich danke Ihnen für Ihre Aufmerksamkeit und Ihr Vertrauen. Ich wünsche Ihnen Erfolg und gutes Gelingen.
Anlagen
Kataloge der Navigatoren des Erfindens im A-Studio
343
Anlage 1 KATALOG Funktion-Struktur-Modelle
Bezeichnung 1. Gegenwirkung 2. Zweifache Wirkung 3. Selbstzerstörung 4. Unvereinbare Wirkungen 5. Wirkung auf zwei Objekte 6. Nicht effektive Wirkung
Typ des FSM
Beschreibung A wirkt auf B nützlich, B wirkt auf A schädlich A wirkt auf B nützlich und schädlich A wirkt auf B nützlich, erzeugt dabei aber eine für sich schädliche Wirkung A und C wirken auf B nützlich, stören dabei jedoch einander
A wirkt auf B nützlich aber auf C schädlich A interagiert mit B nicht effektiv oder eine notwendige Wirkung fehlt
Beispiele von Lösungen in allgemeiner Form
Austausch oder Veränderung des Stoffs eines oder beider Elemente, Zufügen von Zusätzen in die Elemente hinein (oder auf die Oberfläche) oder in die Umgebung; den Charakter der Wirkung verändern.
Veränderung der Zusammensetzung (z.B. eine VermittlerRessource zufügen), der Lage, der Form oder die Zeit der Wirkung der Objekte; Veränderung des Zustands von B; das Problem in eine Form vom Typ 13 überführen.
344
Anlage 2 KATALOG A-Kompakt-Standards
S1
Zusätze
1.1.1-1.1.5
1. Ausnutzen der Möglichkeit, Zusätze (inkl. aus der Umgebung) in bereits bestehende Stoffe und/oder auf die Oberfläche eines Objekts einzubringen um dem System die geforderten Eigenschaften zu verleihen; 2. Ausnutzen der Möglichkeit zusätzliche Stoffe an die im System verwendeten Stoffe anzubinden; 3. ein zusätzlicher Stoff kann zeitweise eingebracht werden; 4. ein zusätzlicher Stoff kann aus den bereits im System vorhandenen Stoffen produziert werden; 5. anstellen eines Stoffes wird ein „Hohlraum“ eingeführt (Luft, Schaum u.ä.); 6. anstelle eines Stoffes wird ein Feld eingeführt, welches die schädliche Wirkung neutralisiert; 7. in geringen Dosen werden hochaktive Zusätze beigefügt; 8. es wird ein normaler Zusatz beigefügt, das jedoch hochdosiert; 9. es werden Modelle (Kopien) verwendet, in die Zusätze eingebracht werden können; 10. ein Stoff wird in eine chemische Verbindung eingebracht, aus der er sich zur nötigen Zeit abspaltet; 11. ein Stoff wird durch Aufspaltung oder Veränderung des Aggregatzustandes eines Teil des Objekts und/oder der Umgebung erhalten; 12. die geforderten Teilchen eines Stoffs werden durch die Zerstörung eines Stoffs höheren Niveaus erzeugt (z.B. Moleküle); 13. die geforderten Teilchen eines Stoffs (z.B. Moleküle) werden durch Zusammenfügen oder Vereinigung von Teilchen niedrigeren strukturellen Niveaus erzeugt (z.B. Ionen).
1.2.1-1.2.4 5.1.1-5.1.4 5.2.1-5.2.3 5.4.1 5.5.1-5.5.3
Anlage 2 Katalog A-Kompakt-Standards
345
S2
Steuerbarkeit
2.1.1, 2.1.2
1. Ausnutzen der Möglichkeit, ein Teil des Objekts (Stoffs) in ein steuerbares System umzuwandeln; 2. Ausnutzen der Möglichkeit, ein leicht steuerbares Feld einzuführen, koordinierte Felder; 3. wenn ein Stoff eine bestimmte räumliche Struktur erhalten soll, muss der Prozess in einem Feld ausgeführt werden, das die Struktur hat, welche der geforderten Struktur des Stoffes entspricht; 4. das Zerteilen eines Stoffs (Felds) ausnutzen, kapillar-poröse Strukturen verwenden, Felder und Komponenten dynamisieren, Phasenübergänge von Stoffen ausnutzen, Koordination und Dekoordination von Rhythmik und Frequenz anwenden; 5. Ausnutzen von Zusätzen elektromagnetischer Teilchen für die Steuerung eines Objekts (Späne, Granulat, „magnetische Flüssigkeiten“ u.ä.) und Einwirken auf diese Teilchen mit magnetischen oder elektromagnetischen Feldern; Verwendung ferromagnetischer Zusätze zusammen mit kapillar-porösen Materialien; 6. Ausnutzen der Möglichkeit der Umgebung ferromagnetische Materialien zuzusetzen; 7. um eine minimale (dosierte, optimale) Arbeitsweise zu erreichen, kann man die maximale Arbeitsweise verwenden und alles überschüssige beseitigen; 8. um eine maximale Arbeitsweise aufrecht zu erhalten, kann diese auf einen anderen Stoff gelenkt werden, der mit dem Stoff des eigentlichen Objekts verbunden ist; 9. um wahlweise eine maximale oder minimale Arbeitsweise zu gewährleisten, wird die maximale Wirkung ausgenutzt. Dabei wird der Abschnitt, wo die minimale Wirkung geleistet werden soll, geschützt; ebenso wird die minimale Wirkung genutzt. Dabei werden in den Funktionsabschnitt, in dem die maximale Wirkung ablaufen soll, Zusätze eingefügt (Stoff, Feld), welche die minimale Wirkung verstärken; 10. Verwenden von Zuständen eines Stoffes, die dem kritischen Zustand nahe sind, wenn die Energie im Stoff gespeichert wird und das Eingangssignal die Rolle des „auslösenden Hebels“ spielt.
2.2.1-2.2.5 5.3.1-5.3.5 2.3.1, 2.3.2 1.2.5 2.4.12.4.12 4.4.1-4.4.5 1.1.6-1.1.8 5.4.2
Anlage 2 Katalog A-Kompakt-Standards
346
S3
Aufdecken und Messen
4.1.1-4.1.3
1. die Möglichkeit nutzen, eine Aufgabe so zu verändern, dass die Notwendigkeit für ein Aufdecken und Messen entfällt; 2. die Möglichkeit nutzen eine Aufgabe so zu verändern, dass die ursprüngliche Aufgabe in eine Aufgabe mit nachträglichem Aufdecken der Veränderungen umgewandelt werden kann; 3. Übergang zur Messung der ersten oder zweiten Ableitung einer Funktion; 4. die Möglichkeit nutzen in bereits vorhandene Stoffe (inkl. die Umgebung) und/oder auf die Oberfläche eines Objekts Zusätze einzubringen, die zu leicht aufdeckbaren (messbaren) Feldern führen, anhand derer man den Zustand des zu beobachtenden Objekts beurteilen kann; 5. Übergang zu Bi- oder Polysystemen; Verwendung von Kopien; 6. Verwendung technischer Effekte.
4.2.1-4.2.4 4.3.1-4.3.3 4.5.1-4.5.2
S4
Expansion
3.1.1-3.1.3
1. Verwendung der Verbindung eines Objekts mit einem anderen System (oder Systemen) in einem komplexeren Bi- oder Polysystem; 2. Beschleunigung des Aufbaus von Verbindungen zwischen den Teilen eines Systems und der Umgebung; 3. die funktionale Belastung eines Systems und seiner Teile erhöhen.
S5
Kontraktion
3.1.4-3.1.5
1. Ausnutzen der Möglichkeit wenig belastete oder Hilfsteile (Elemente) des Systems zu verkleinern, reduzieren; 2. Ausnutzen der Möglichkeit unvereinbare Eigenschaften innerhalb eines Systems aufzuteilen, indem die eine Eigenschaft den Faktor F bekommt und die anderen Teile des Systems den Faktor Anti-F erhalten; 3. Ausnutzen der Möglichkeit der Funktion des Systems auf einem Mikroniveau - auf dem Niveau eines Stoffes oder/und von Feldern.
3.2.1
347
Anlage 3 A-Matrize zur Auswahl der spezializierten Navigatoren Die Liste von Plus-Minus-Faktoren der/des: 01. 02. 03. 04. 05. 06. 07. 08. 09. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39.
Produktivität Universalität, Adaptierbarkeit Niveaus der Automatisierung Zuverlässigkeit Genauigkeit der Fertigung Genauigkeit der Messung Kompliziertheit der Konstruktion Kompliziertheit bei Kontrolle und Messungen Fertigungsfreundlichkeit Benutzungsfreundlichkeit Reparaturfreundlichkeit Informationsverluste Auf das Objekt wirkenden schädliche Faktoren Schädlichen Faktoren des Objekts selbst Länge des beweglichen Objekts Länge des unbeweglichen Objekts Fläche des beweglichen Objekts Fläche des unbeweglichen Objekts Volumens des beweglichen Objekts Volumens des unbeweglichen Objekts Form Geschwindigkeit Funktionszeit des beweglichen Objekts Funktionszeit des unbeweglichen Objekts Zeitverluste Stoffquantität Stoffverluste Festigkeit Stabilität des Bestands des Objekts Kraft Spannung, Druck Gewichts des beweglichen Objekts Gewichts des unbeweglichen Objekts Temperatur Stärke der Beleuchtung Kapazität Energieverbrauchs durch das bewegliche Objekt Energieverbrauchs durch das unbewegliche Objekt Energieverluste
Kompliziertheit der Konstruktion
07
Kompliziertheit bei Kontrolle und Messungen Fertigungsfreundlichkeit
08
01 06
09
Benutzungsfreundlichkeit
10
01 03 02 04 07 03 04
Reparaturfreundlichkeit
11
03 09 02
Informationsverluste
12
Auf das Objekt wirkende schädliche Faktoren
13
11 36 07 21 01 11 18
Länge des unbewegl. Objekts
Länge des beweglichen Objekts
Schädl. Fakt. d. Objekts selbst
Auf d. Objekt wirk. Schäd. Fakt.
Informationsverluste
Reparaturfreundlichkeit
Benutzungsfreundlichkeit
Fertigungsfreundlichkeit
Kompliziert. bei Kontr.& Mess.
Kompliziertheit der Konstrukt.
Genauigkeit der Messung
Genauigkeit der Fertigung
Zuverlässigkeit
Niveau der Automatisierung
16
06
15
Genauigkeit der Messung
14
05
13
Genauigkeit der Fertigung
12
04
11
Zuverlässigkeit
10
03
09
Niveau der Automatisierung
01 04 20 27 35 37 01 10 03 01 14 30 02 06 09 23 02 15 04 09 37 19 04
08
02
07
Universalität, Adaptierbarkeit
06
01
05
Produktivität
04
01
Was wird besser
03
Produktivität
Was wird schlechter
Universalität, Adaptierbarkeit
Anlage 3 Ⱥ-Matrize
02
348
01 03 04 27
01 10 35 37 13 15 01
03 01 02 30 01 11 32 18 28 13 09
09 03 06 02 -
03 02 15 04 01 35 03 02 04 10 02 15 09 12 28 36 -
37 19 04 18 07 14 27 04 07 18 02
01 06 13 05 03
01 04 05 18 03 11 31
03 04 34 08 07 15 03 16 03 37 15 12 13 19 17
03 09 02 29 03 16 34 24 03 01 11
11 07 36
21 01 11 18 01 28 09 31 05 38
01 21 06 23 -
06 24 04 30 01 03 14 05 22 11 04 19 07 39 22 24 02 04 14 27 04 10 35 16 03 08 10 18 16 19 10 18 03 14 11 19 03 19 11 37 03 04 02 29 03 10
25 34 22 10 03 01 16
13 24 03 01 11 01 32 18 -
11 01 05 14 07 04 27 03 07
28 11 13
04 10 06 36 28 09 03
10 04 06 36 04 05 02 15 07 03 18
28 09 03
15 33
13 17 04 32 -
-
19 13 32 17 28 02 03 16 02 04 36 13 18 05 17
03 09 01 36 29 02
05 11 07
32 04 03
07 15 03 16 34 03 24 16 -
03 15 37 12 15 01 34 11 01
01 28 21 31
38 12 15
35 28 03 36 11 01 03
-
10 18 09
-
05 10 02 15 10 18 09 04 03 01 37 06 29 11 05 15 02 05 11
15 13 29
03 10 11
11 01 03
13 17 04
-
10 05 06
-
-
13 01 02 15
10 18 09 04 07 02 27 04
20 01 29 06 13 10 03 11 35 04 28 14
07 02 27 04 13 10 03
-
-
09 29 37 19 01 03 11 28 -
10 04 02 06
04 38 36 10
21 08 14 17
20 04 28 03 -
-
01 38 21 08 14 17
-
01 38
03 28
02 04
03 09 01 36 03 11 19 15 13 39 10 18 05 35
29 02
-
03 09 11 28 03 11
-
05 35 11 16
01 03 28 39 37 10 03 09
05 35 37 03 01 28 02 09
03 37 10 07 13 21
18 01 05
05 29 04 23
37 10
-
01 38 13 21 09 18 06 16 24 02 13 21 -
-
01 02 05
21 02 05
05
13 01 05 17 10 04 02 26 04 18 21 10 21 08 14 17 21 08 14 04 18 05
01 05 17 10 24 19 15 10 12 38 23 02 08 03
05 29 04 23 01 02 05 16 21 02 03
-
05 33
-
-
02 33 21 -
19 03 23 24
36
07 14 04 28 05 09 02 09 04 12 16 10
10
07 19 13 -
12 06 31 10
03 06
21 03 12 01
33 21 01 04
21 07 38 04
19 03 17 38
05 04 02 29 18 04 01 01 38 14 31
11 01
28 04
-
12 13
25 06
02 18 01 08 12 01
04 20 09
09 01 11
32 04 02 12 04 08 15 26 09 05
05 11 04
05 21 19 08 28 21 23 25 28 11 03
04 09 05 18 05 01 15 13 -
13 12 07 04 03 12 02 09 09 17 12 04 03 28 05 39 -
38 21 08 17
06 01 27 03
21 33 13 23
05 21 11 18
20 04 09
10 16
08 03 01
26 04 17 08 01 37
01 26 27 09 01 08 03 27 05 09 37
09 01 25
04 11 01
05 01
03 28 02
11
-
-
-
01 18 25 06
11 01 23 06
21 05 27
01 33 04 02 13 05 12 01 10 05 08
10 19 08 03 20 21 10 03 32 09 08
12 01 02
20 08 04 18 05 19 11 12 13 01 16 13 10 06 10 13 11 24 02
-
21 38 01 05
Energieverluste
Energieverbr. des unbew. Obj.
Energieverbrauch des bew. Obj.
Kapazität
Stärke der Beleuchtung
Temperatur
04 13 07 12 08 07 14 16 04 10 01 02 12 02 32 04 10 01 13 39 04 01 29 10 05 10 01 23 20 11 04 03 03 13 26 11 20 11 03 29 05 13 01 28 02 01 35
08 10
39
02
03
05 01
38
10 09
03 16 29
14 12 32 29 28 14 04 13 02
06 04 09 39 01 04 15 24 24 04 02 15 09 03 02 29 18 10 04 09 01 06 15
06 03
37
15 39
29 15 20 01 01 16
01 10 18 27 03 20 07 32 04 10 06 01 12 32 02 17 04 09 11 06 09 01 10 04 10 25 15 26 13 10 04 11 04 14 07 16 29 05 11 07 05 13 01 28 02 18 01
36
12 24 16 01 01 11 32 03 06 11 15
11 12 13 02 12 13 14 06 01 36 03 18 37 01
02 27 22 01 16
35
-
04 07 02 26 07 19 40
34
15 23 08 13
02 24 04 07 08 14 29 23 13 03 24
05 20 09
01 12 21 23 01 25 22
Gewicht des unbewegl. Objekts
21 36 27 01
02 10 18
14 04 02 06 01 12 09 20 29 11
33
13 05 23 01
05 21
04 20 09
04 02 01 36 07 02 05 11 01 02 06 35 02 01 14 23 01 31 02 18 02 16 31 04 01 02 04 14 03 06 02 18 07 15 38
Gewicht des bewegl. Objekts
21 03 38 04
24 06 23 31 03
04 11 09 18 15 02 04
09 10 04 06 18 15 04 09 20 14
33 04 17 12 09 25
32
25 16
06 16 07 23 16 29
15 13 20 17 -
Spannung, Druck
05 06 10 31 01
25 10
14 03 24 16 11 14 03 17 03 16 01 07 29 05 01 28 -
05 01 12 29 12 13 17
31
05 23 25 16 16 17
14 11 04 07 13 11 03 23 03 04 11 13 07 15 14 04 03 11 05 24 -
33 01 28 04 02 04 09
Kraft
03 16
-
30
15 10 20
01 11
20 39
Stabilität d. Bestands d. Objekts
20 04 09
18 04 01 25 02 25 24
04 02
29
-
12 01 07
Festigkeit
09 11 20
29 02 01
01 04
01 02 22
28
05 01 18
01 30
Stoffverluste
12 02 22 18 09 04 05
-
01 02 05 06 11 03 01
27
09 01 17 24 05 14 06 26 10 04 09 12 20 26
40 02 16 30 05 16
-
Stoffquantität
19 02 22 16 04 38 14 09 10 04 09 12 22 03 11 16 05 11 06 19 11 03 10 37 03 19 11 16 07 11 09
26
-
Zeitverluste
01 11 16
25
-
22 02 15 17 07 27 03 32 07 09 03 11 01 03 16 28 09 25 17
Funktionszeit des unbew. Obj.
01 27 02 05 -
24
05 20 15 02 07 01 14
Funktionszeit des bewegl. Obj.
02 01 19 34 07 16
23
Geschwindigkeit
21
02 10 15 31 01 25 14 34 19 22 11
22
Form
20
Volumen des unbewegl. Obj.
19
Volumen des bewegl. Objekts
18
Fläche des unbewegl. Objekts
17
Fläche des beweglichen Objekts
Anlage 3 Ⱥ-Matrize 349
01 40 02
03
04 02 14 01 06 07 03
04 05 13
01 02 30 08 08 01 14 11 05 09 11
-
36 04
28 33 09 28 11 10 31 12 09 09 05
33 28 13 08 09 05
26 36
02 28 01
-
11 09 05
20 12 03 20 09 09
12 20 09
-
10 09 13
18 40 19 08 11 25 15 05 08 18 03 10 16 02 04 13 18 03 13 37 03 18 11 01 19 15 03 05 18 02 07 07 03 02 11 09 05 08 02 08
13 05 14 04 01 30
-
02 01 11 05 01 12 07 08 08 01
08 03 14
03 08 08 21 09 31 11 05
-
08 01 16
04 10 13 03 03 11 18
03 24
-
05 08 11
07 03 04 16 -
-
-
07 03 09 08 08 02
03 18 20 13
02 05 21 27
33 21 01 05
11 14 12 13
07 02 10
02 06
03 01 11
20 02
28 01 13 04 28 05 11
05
03
01 04
18 04 01 25 32 01
15 13 20 17 02 25 24 06 12 04 17
-
02 33 14
-
03 14 19
07 14 01 24 05 29
03 04 02
03 18
19 07
12
18 10
03 07 19 18 03 06
-
-
25 10
21 38 04 03 13 05 23 01 21 33 13 01 15 23 08 13 21 03 05 01 03 04 01 36 21 07 38 04 19 03 17 38 01 06 15
19 05 06 23 21 03 17
22 07 06 24 -
19 05 17 03 25 06 01 24 01 03
03 34 01 04 08 22
05 26 10 06 05 01 25 06 14 10 24
07 19 13 11 03 10 18 17 16
07 19 11 16 16 24
07 11 02 03 16
14 03 17
07 11 25 37 -
02
05 21
03
-
09 07 10
05 11 03
-
09 04 11 37 37 13
15 05 04 13 14 02 13
11 10
01 02
03
03
02
01 04 15 24 14 03 01 13
24 04 02 15 01 14 02 29
09 03 02
18 10 04 09 18 04 01
-
03 31
05 19 10
01
09 25 17
04 09 03
07 11 23
02 04 09 29 12 13 16 17 -
04 09 03 18 12
16 14 03 04 02 04 24 15 02 24 14 07 -
03 09 19 04 01 11 32 03 13 03 24
18 10 04 06 38 25
18 15 04 09 12 05 04
02 10 18
20 14
12 11 13 02
12 15 13 16 08 14 23 01 29 15 20 01 06 04 09 02 12 13 14 06
05 09 02 29
25 16
02
01 38 14 31
05 18 01 33 33 23 16 21 21
01 21 06 23 12 01 17 23
Länge des unbewegl. Objekts
-
16
-
Länge des beweglichen Objekts
Kompliziertheit der Konstrukt.
Genauigkeit der Messung
Schädl. Fakt. d. Objekts selbst
02 17 16
07 12 14
Genauigkeit der Fertigung
Niveau der Automatisierung
07 03 09
05 33 13 03 01 03 10 18 10
15
26
25
03 07 14
10 03
14
Stoffquantität
24
01 19 22 08 40 02 16 30 -
-
01 15 16 18 -
03 06 26
Auf d. Objekt wirk. Schäd. Fakt.
23
05 14 06 26 29 04 05 16 01 02 29
22 03 11
13
Funktionszeit des beweglichen Objekts Funktionszeit des unbeweglichen Objekts Zeitverluste
09 01 17 24 22 03 17 28 05 01 16
10 04 09 12 10 04 09 12 29 10 04
Informationsverluste
22
05 09
12
Geschwindigkeit
14 39
09 04 12
Reparaturfreundlichkeit
21
03 08 10 18 03 10
11
Form
04 09 24
Benutzungsfreundlichkeit
20
08 03 31
10
Volumen des unbeweglichen Objekts
07 14
12 38 10
Fertigungsfreundlichkeit
19
07 16
24 19 15 10 02 04 14 27 05 09 02
09
Volumen des beweglichen Objekts
22 25 04 36 36
18 05 17 23 02 22 14 17 07 14 04
Kompliziert. bei Kontr.& Mess.
18
07 25
05
08
Fläche des unbeweglichen Objekts
19 18 10 16 -
07
17
22 07 03 16 03 01
06
Fläche des beweglichen Objekts
-
05
16
21 01 06 23 22 24 04 14 25 22 34 10 02 10 15 05 02 07 19 34 02 20 05 15 01 27 02 05 19 10 15 02 -
04
Länge des unbeweglichen Objekts
15
Universalität, Adaptierbarkeit
14
02
Schädliche Faktoren des Objekts selbst Länge des beweglichen Objekts
Produktivität
Was wird besser
01
Was wird schlechter
Zuverlässigkeit
Anlage 3 Ⱥ-Matrize
03
350
19 07 16 21
-
-
14 15 35 24 11 22 32
-
10 34 39 23 -
01 32 05 22 11 22 02 34 -
05 08 39
-
-
03 17 01
07 05 14
25 18 22 35 -
14 22 01 06
10 24 35 16 07 22 14
02 01 19 24 05 06 17 24
05 35 15 02 07 40 14
01 15 30 01 16 09 06 -
-
14 24 30 15 -
20 01 24
05 02 08 25 -
-
01 15 30
01 07 15 06
22 10 39 29 12 08 01 35
-
02 01 24 06 05 20 15 02 01 16 09 06 22 02 15 19 -
14 25 20 11 05 06 17 24 14 25 34
03 07 14 24 34 05 01
01 07 06 15 22 10 04 29 -
24 02 15 19 01 22
12 01 35
-
-
-
-
40 02 04 06 12 01 02 17
01 14 15 04
-
04 40 02 16 12 01 31
40 02 04 06 04 40 02 16
01 12
26 21
02 08 14 30 12 01 02 17 12 01 31 01 30 06 16
01 30 06 16
39 22 07 34 39 22 19 07 25 22 02 17 32 12 10 22 13 12 02
04 02 03 23 18 04 01 17 38 03 06 24 04 38 03 06 11 12 01
-
23 12 01 36 01 12 21 35 07 05 19 17
14 12 04 06 22 01 15 02
08 25 01 05 03 06 01 26 07 01 26 27 05 06 27
02 07 26 04 02 07 26 27 20 01 26 27 18 01
01 02 27 17 11 04 07 08 08 05 16
15 07 02 22 20 06 30 17 08 12 13
-
-
02 27 26 35 01 22 12
27 26 24
28 05 11 23 05 30
02 26 22 12
01 23 30
05 10 14 17 -
32 02 14 17 05 04 11 30 08 35 15 31 -
02 40 27 01 01 20 06 31
01 02 08 22 07 02 10 12 -
-
20 13 08 16 02 40 10 35 13 10 06 01
Energieverluste
25 05 22 06 -
05 19 14 04 -
Energieverbr. des unbew. Obj.
12 01 30 06 05 07 16
Temperatur
01 04 17 14 -
Energieverbrauch des bew. Obj.
Gewicht des unbewegl. Objekts
Gewicht des bewegl. Objekts
Spannung, Druck
Kraft
Stabilität d. Bestands d. Objekts
Festigkeit
Stoffverluste
Stoffquantität
Zeitverluste
Funktionszeit des unbew. Obj.
Funktionszeit des bewegl. Obj.
Geschwindigkeit
Form
10 24
21 01 05 18 02 07 08
39
-
-
01 21 03 23 -
38
-
-
02 05 08 25 -
20 12
03 22 01
08 21 07 23 32 07 14 15 -
37
-
14 25 24 15 -
04 02
Kapazität
12 19 08
-
-
05 38 13 06 03 32 01
36
34 05 01
25 14 22
01 04 03 17 19 02 24
Stärke der Beleuchtung
22 24 07 21 34 14 15
03 17 01
24 14 36 02 02 04 18 01 02 01 05 23 02 22 06 23 26 23 15 02 02 23 01 15 01 14 12 35 02 11 04 30 04 13 12 06 13 16 06 30 01 06 02 23 20 12 02 18
01 17 13 23 03 32 07 15 23 27 01
35
-
-
07 05 14
07 01 21 05 32 01 14 15 07 22 04 10 12 07 17 22 17
34
35 15 24 02 14 25 15
-
03 32 02 14 11 22 07 34 35 15 14 24 -
02 03 15
33
-
12 18 23 03 14 01
32
-
-
-
03 21
31
-
33 23 16 21 -
30
03 34 24 19 -
07 21 38 31 08
29
-
01 04 12 36 11 24 32
28
-
34 22 19 24 -
01 32 05 22 -
01 03
27
19 34 02 17 -
26
-
01 04 34 19 -
25
-
25 06 01 24 -
24
19 05 17
23
21 03 17
22
19 05 06 23 07 19 24
21
20
Volumen des unbewegl. Obj.
19
Volumen des bewegl. Objekts
18
Fläche des unbewegl. Objekts
17
Fläche des beweglichen Objekts
Anlage 3 Ⱥ-Matrize 351
08 05 18 01 23 06 09 09 03 01
05 01 20
08 21 06
32 01 18
-
12 37 29 32
-
-
33 01 05 21 34 05 01 23 20 04
07 08 09 02 08 09 11 06 - 19 09
08 09
-
-
-
15 23 02 06 01 20 24
02 01 11 20 05 11 06 - 25 20
01
-
-
-
34 07 11 16 -
21 22 08 09 04 25 26 05 08 01 23
11 24 07 20 09 05
05 20 15 22 32 07 01 30 04 20 01 06 -
-
22
-
-
22 40 08 01 -
-
-
03
02 35 06 09 34 06 29
08 06 26 17 01 14 33 06 12 19 23
02 08 11 01 08 30 05 05 08 08 02 24 01 01 30 - 16
03 01 08 40 10 02 19 20 - 01
01 30 08 06 15 14 16 06
12 01 31
07 19 25 10 19 34 25
Stärke der Beleuchtung
12 01 11 33 02 11 08 01 12 28 03 13 02 04 32 12 08 01 12 02 -
04 14 27 26 12 01
01 02 36 18 20 04 29
04 01 10 06 02 03 01 19 18
04 13 01 10 06 10 04
01 18
10 01 06 08 05 10 01
05 06 13 07 03 08
10 05 08 16 05 10 02
04 01 15
08 19 15
04 05 19
37
37 04 01
09 05
38
03 20
07 19 11 16 -
39
04 02 14 01
-
05
-
09 08 18
10 25 26 15 03 02 10 23 05 19 16
12 09
28 07 09
20 09 11
08 18 10 31 08 33 28 13 02 26 36
09 05
09 07 05
-
12 03 09
-
-
40 08 25 15 05 14 13 04 -
28 02 01
-
09
34 36
Länge des unbewegl. Objekts
-
-
05
-
02 03 15 14 07 01 21 05 01 17 13 23 11 12 26 18 05 38 13 06 21 01 31 23 01 21 03 23 21 01 05 18 01 08 09 23 05 01 06
22 14 02 23 03 07 32 01 11 07 03 04 19 08 39 26 01 02 26
02 04 18
05 01 02 16 07 03 28
38 21 25 17 06 01 27 03 01 18 06 25 03 01 17 06 21 05 27
-
13 04 03 26 04 03 09
01 12 05 18 20 11 03 09 10 13
05 13 04 28 05 13 04 28 24 02 16
02 18 01
08 01 04 10 10 02 15
04 10 08
03 20
01 30
04 10 25
08 01
08 01 16 29 01 12 07 36
03 24
-
07 19 11 16 01 05 02 15 03 07 19 04 -
-
01 09 03
05 08
08 02
08 01 16
Länge des beweglichen Objekts
05 01 15 13 13 28 12
03 04 12 29 28
10 13
Schädl. Fakt. d. Objekts selbst
09 04 05 18 09 17 04 05 09 01 25
07 27 06 03 03 01 16
04 14 10 09 29 04 19 07 12 13 01 31 09 07
Auf d. Objekt wirk. Schäd. Fakt.
Benutzungsfreundlichkeit
Fertigungsfreundlichkeit
Kompliziert. bei Kontr.& Mess.
Kompliziertheit der Konstrukt.
Genauigkeit der Messung
Genauigkeit der Fertigung
05 01
05 01 21 10 10 01 02 06 08 03 01
14 35 07 32 08 07 14
33
Zuverlässigkeit
11
16
34
06
15
Temperatur
-
28 12 02 09 01 08
14
32
07 15 38
03 32 01
01 06 02 11 13 12 07 17 01 21 23 36 26 27 02 08 05 26 27
13
Gewicht des beweglichen Objekts Gewicht des unbeweglichen Objekts
01 02 04 18 05 11 04
Informationsverluste
Energieverbrauch durch das bewegliche Objekt Energieverbrauch durch das unbewegl. Objekt Energieverluste
31
16 15 31 04 12 13 16
Reparaturfreundlichkeit
36
Spannung, Druck
01 02 18 31 12 13
12
Kapazität
30
02 14 23 01 28 12
11
05 29 16
Kraft
01 02 06
10
35
29
09
01 25 15 05 07 19 06 40 01
Stabilität des Bestands des Objekts
08
07
28
07
07 12 09
Festigkeit
06
07 02 05
27
05
02
04 01 02 36 14 01 02 22 36 01 17 12 12 04 01 27 02 22 01 27 01 12 18 27 03 04 07 01 07 04 01
Stoffverluste
04
01
Was wird besser
03
Produktivität
Was wird schlechter
Niveau der Automatisierung
Anlage 3 Ⱥ-Matrize Universalität, Adaptierbarkeit
352
10 01 02
-
02 07 01 -
02 08
-
-
21 33 06 13 05 08 21 27 21 38 01 05 07 08
08 21 31 05 03 01 20 13 02 05 21 27 33 21 01 05
05 01 20
07 32 14 15 -
07 08 39
07 22 04 10 27
04 02
01 03 22 16 -
02 03 14 01 07 08 39
08 09 16
-
03 02 01 27 37 04
-
-
08 21 06
-
-
33 01 05 21
34 05 20 11
20 30 34
12 01 23 06 08 09 10 08 30
07 08 29
01 25 11 05 01 30
-
19 09 11 30 -
15 23 17 06 05 11 02
35 01 22 05 01 20 24 -
01 20 30
25 20 29
01 11 06
-
35 15 31 01 -
-
05 04 26 25 02 11 08
08 11 23
12 10 06 31 08 20 06 10 12 19 25 23 03 08
14 22 05 17 37 05 14
07 01 05 32 07 01
02 01 40 04 02 40 01 10 01 04 33 06 08 03 10 19 01 40 02 20 01 30 08 06 -
02 06 09 34
34 06 29
-
-
-
-
-
-
07 10 19 25
19 34 25 06
34 06 36
34
-
16 01 30
05 08 20
05 13 08 20 08 06 26 17 -
08 01 02 30 04 01 20 06 -
16
-
-
-
-
24 15 08 15 36 16 06 12 01 31
04 13 06 30 01 18 06 35 04 13 06 31 01 13 05 27
Energieverluste
Energieverbr. des unbew. Obj.
Energieverbrauch des bew. Obj.
Kapazität
Stärke der Beleuchtung
Temperatur
Gewicht des unbewegl. Objekts
Gewicht des bewegl. Objekts
39
05 32 07 30 -
38
27 26 24
37
-
22 14 06 26 02 22 26
36
-
08 12 13
02 27 26
35
14 05 17 04 -
23 12 01 36 -
34
02 07 26 04 14 19 30 15 -
03 06 26 27 02 07 26 27 -
07 09 01
11 13 02 01 08 05
33
08 02 07
23
01 04 31 17 05 22 25 17 32 01 17 35 02 26 12 27 35 01 12 31 35 32 11 25 33 26 14 31 11 03
32
20 12 02 18 14 02 13
Spannung, Druck
07 06 01 02 14 12 04 02 01 13
Kraft
13 16 06 30 -
31
04 13 12 06 13 12 10
30
02 11 04 30 32 11 10 22 38 07 04 06 11 04 07 37 20 01 26
Stabilität d. Bestands d. Objekts
14 01 12 35 02 25 01 17 21 03 06 24 02 01 17 15 01 24 07 02 02 22 01 17 11 02 14 22 22 21 08 09 09 25
29
27
12 23 06 31 03 22 19 07 15 04 01 17 05 26 06 27 01 18
Festigkeit
Stoffverluste
26
03 14 25 26 02 07 22 34 04 02 08 23 07 39 37 27 20 01 02
28
Stoffquantität
25
02 06 23 31 39 17 04
Zeitverluste
24
Funktionszeit des unbew. Obj.
23
Funktionszeit des bewegl. Obj.
22
Geschwindigkeit
21
01 05 02 31 12 15 17 14 05 28 11
Form
20
Volumen des unbewegl. Obj.
19
Volumen des bewegl. Objekts
18
Fläche des unbewegl. Objekts
17
Fläche des beweglichen Objekts
Anlage 3 Ⱥ-Matrize 353
01 04 31 17
05 22 25 17 11 19 01
22 07 06 17 02 06 12 22 02 01 33 16
12 26 27 02 02 12 06 17 05 01 17
01 20 36 17 03 32 17 07 33 01 05 23 32 03 27 06 02 26 27 17
01 20 21 09 17 10 13 03 10 23 03 17 06 11 03 04 11 14 02 06 -
33 26 23 31 25 02 17
03 20 11
04 13 06 30 02 10 01 04 09 01 13 31 08 01 06 27 02 01 22
01 06 18 35 08 01 02
04 13 37 31 01
01 13 05 31 01
19 39 07 01 02 22 13 39 06 12 17 04 13 06 17 04 05 02 13 02 25 21 17 01 08
01 02 33
10 02 04
01 09 07 31 08 11 19 18 13 24 14 06 22 05 23 20
35 08 39 01 01
10
01 38 05 17 03 01 08 23 10 23 03 17 03 01 09 09 12 13
06 33 28 26 01 33 32 02 06 27 32 02 08 01 01 02 12 33 10 08 20
02 26 27 17 11 14 02 06 01 23 08 05 -
10 05 26 01 16 10 33 05 26 27
21 02 01
26 30
-
36 22 29 -
-
26 21 20 30 08 03 09 32 26 30 31 37 06 04 31 -
07 20 08 04
01 03 09 01 02 33 01 23 08 05 20 14 24 30 04 08 09 21
09 12 13 07 -
-
08 03 09 01 08 09 09 25 33 16
21 01 09 05 01 09
09 01 08
08 10 19 13 -
05 22 19 29 08 18 12 22 -
08 39 20 13 08 20 06 39
01 08
08 30 34
37 26 06 31 07 08 06 21 05 22 19 29 09
16 20 08 05 07 08 08 05 01 09 03 11 09 07
11 08
13 24 14 06 03 16 26 27 -
22 05 23 20 22 07
08 19 02 22 18 02 27 01 37 15 31 -
08 07 12 19 09 03 08 16 20 08 27
20 08 27 06 -
12 30
-
06 08 04 03 -
09 01 03 07 -
-
-
-
-
05 26 29 20 05 15 08 06 08 04 07 33 19 01 30 08 16 03 20 02 01 30 37 21 07 18 -
354
Anlage 4 KATALOG Spezialisierter A-Navigatoren Die Liste von A-Navigatoren der/des/von: 01. Veränderung des Aggregat-Zustandes eines Objekts 02. Vorherigen Wirkung 03. Zerteilens 04. Ersatzes der mechanischen Materie 05. Ausgliederns 06. Nutzung mechanischer Schwingungen 07. Dynamisierung 08. Periodischen Funktion 09. Veränderung der Färbung 10. Kopierens 11. Entgegengesetzt 12. Lokalen Eigenschaft 13. Billigeren Nichtlanglebigkeit als Ersatz für teure Langlebigkeit 14. Verwendung von pneumatischen oder hydraulischen Konstruktionen 15. Verwerfens und der Regeneration von Teilen 16. Partiellen oder überschüssigen Wirkung 17. Verwendung von Verbundstoffen 18. Vermittlers 19. Übergangs in eine andere Dimension 20. Universalität 21. Schaden in Nutzen umwandeln 22. Sphäroidalität 23. Verwendung inerter Medien 24. Asymmetrie 25. Verwendung flexibler Hüllen und dünner Schichten 26. Phasenübergänge 27. Ausnutzung der Ausdehnung beim Erwärmen 28. Vorher untergelegten Kissens 29. Selbstbedienung 30. Verwendung starker Oxidationsmittel 31. Verwendung poröser Materialien 32. Gegengewichts 33. Schnellen Sprungs 34. Matrjoschka 35. Verbindens 36. Rückkopplung 37. Äquivalenten Potentials 38. Gleichartigkeit 39. Vorherigen Gegenwirkung 40. Ununterbrochenen nützlichen Funktion
Anlage 4 Katalog A-Navigatoren
355
01VERÄNDERUNG DES AGGREGATZUSTANDES EINES OBJEKTS a)
b)
Hierzu gehören nicht nur einfache Übergänge, wie z.B. vom festen in den flüssigen Zustand, sondern auch Übergänge in „Pseudozustände“ („Pseudoflüssigkeit“) und in Zwischenzustände, z.B. die Ausnutzung elastischer Eigenschaften fester Körper; Veränderungen der Konzentration oder Konsistenz, des Grads der Flexibilität, der Temperatur u.ä.
Bsp. 01-1. Die Anwendung magnetorheologischer oder elektrorheologischer Flüssigkeiten mit Steuerung des Grades der Viskosität vom flüssigen bis hin zum festen Zustand. Bsp. 01-2. Bei einem misslungenen Trainingssprung vom Turm ins Schwimmbecken, kann der Trainer einen Impuls an das Wasser geben, wodurch es „aufschäumt“ und somit „weich“ wird, und damit die Verletzungsgefahr für den Sportler senkt. Bsp. 01-3. Die Havariebremszone auf den Landeflächen von Flughäfen sind in Form eines Beckens gebaut, das mit einer viskosen Flüssigkeit gefüllt ist, und mit einer dicken Schicht elastischen Materials bedeckt oder auch mit Schüttmaterial ausgefüllt ist.
02 VORHERIGE WIRKUNG a) b)
Vorhergehende notwendige Veränderung eines Objekts (vollständig oder zumindest teilweise); Im voraus Objekte so stellen, dass sie von der günstigsten Position aus in Betrieb gesetzt werden können und ohne Zeitverlust zugänglich sind.
Bsp. 02-1. Rohlinge für Maschinenteile werden so hergestellt, dass sie in Form und Größe dem Endprodukt ähneln. Bsp. 02-2. Für eine bessere Bewässerung von Bäumen an den Rändern von Straßen, werden beim Setzen im Wurzelbereich Plastikrohre eingebracht. Bsp. 02-3. Hydranten werden auf Straßen so installiert, dass sie an große unterirdische Wasserleitungen angeschlossen werden können.
03 ZERTEILEN a) b) c)
Ein Objekt in unabhängige Teile zerlegen; Ein Objekt zerlegbar machen; Den Grad des Zerteilens (der Zerkleinerung) des Objekts erhöhen.
Bsp. 03-1. Die mehrstufige Rakete. Bsp. 03-2. Der Druckluftreifen, der sich in voneinander unabhängige Bereiche aufteilt, um die Lebensdauer zu erhöhen. Bsp. 03-3. Anstelle von Sägen werden zum Schneiden von Stein, Flüssigkeitsstrahlen verwendet (mit abrasiven (schleifenden) Pulvern), die unter hohem Druck beigefügt werden.
356
Anlage 4 Katalog A-Navigatoren
04 ERSATZ DER MECHANISCHEN MATERIE a) b) c) d)
Mechanische Schemata durch optische, akustische oder olfaktorische (Geruchs-) Schemata ersetzen; Verwendung elektrischer, magnetischer oder elektromagnetischer Felder für die Wechselwirkung von Objekten; Ersatz starrer Felder durch dynamische, von fixierten zu zeitlich veränderlichen, von nicht strukturierten zu Feldern mit einer bestimmten Struktur; Nutzung von Feldern in Verbindung mit ferromagnetischen Teilchen.
Bsp. 04-1. Werkbänke und Transportsysteme mit linearen Schreitmotoren. Bsp. 04-2. Das Funktionsverfahren des Xerokopiergeräts oder des Tintenstrahlkopierers, das die Bildung eines elektrostatischen Feldes mit einer Struktur beinhaltet, die genau der Abbildung entspricht (bezogen auf das zu kopierende Objekt oder die Datenausgabe des Computers) und das die Intensität und Koordinaten des Auftragens der Farbteilchen auf das Papier steuert. Bsp. 04-3. Die Verwendung magnetorheologischer und elektrorheolohischer Flüssigkeiten (s.a. Navigator Nr. 01)
05 AUSGLIEDERN Das „störende Teil“ (die „störende Eigenschaft“) aus dem Objekt ausgliedern oder, im Gegenteil, das einzige notwendige Teil (notwendige Eigenschaft) ausgliedern. Bsp. 05-1. Die Pedale am Fahrrad störten, als sie noch am Vorderrad installiert waren; später wurden sie am Rahmen installiert. Bsp. 05-2. Ein Roboterarm wird aus einem „Shuttle“ gestreckt und schickt Raketen auf die Umlaufbahn; diese Methode ersetzt den Start mehrerer Trägerraketen, wie es früher gemacht wurde. Bsp. 05-3. Unter einem Schiff wird ein nicht hermetisch abgeschlossenes Modul zum Tauchen für Wissenschaftler oder Touristen mitgezogen; das Modul hat ein Tiefenruder.
06 NUTZUNG MECHANISCHER SCHWINGUNGEN a) b) c) d)
ein Objekt in Schwingungen versetzen; wenn eine solche Bewegung bereits abläuft, ihre Frequenz erhöhen (bis hin zur Ultraschallfrequenz); Ausnutzung der Resonanzfrequenz, Anwendung von Schwingquarzvibratoren; Ausnutzung von Ultraschallschwingungen in Verbindung mit elektromagnetischen Feldern.
Bsp. 06-1. Methode des Thermokompressionsschweißens, z.B. für die Verbindung von Leitern mit einer metallisierten Kontaktplatte für integrierte Schaltkreise, wobei auf das Arbeitsinstrument mechanische Schwingungen mit einer Steuerfrequenz im Ultraschallbereich einwirkt. Bsp. 06-2. Maschinenteile geben mechanische Schwingungen zur Messung des Werts der Resonanzfrequenz zum Aufdecken von Abweichungen und dem Finden von vorhandenen Defekten. Bsp. 06-3. Das Ultraschall-Skalpell für chirurgische Eingriffe
Anlage 4 Katalog A-Navigatoren
357
07 DYNAMISIERUNG a) b) c)
Die Charakteristika eines Objekts (oder der Umgebung) müssen so geändert werden, dass sie bei jedem Arbeitsgang optimal sind; Objekt in Teile zerlegen, die untereinander beweglich sind; Wenn ein Objekt unbeweglich ist, es beweglich machen.
Bsp. 07-1. Flugzeuge mit veränderlicher Flügelpfeilung. Bsp. 07-2. Poller, die das unberechtigte Abstellen von Fahrzeugen verhindern sollen, bestehend aus einer Säule, die an einem Scharnier befestigt ist, das abnehmbar oder vertikal bzw. horizontal fixiert ist und Schlösser hat, welche die Säule im Arbeitszustand nicht abklappbar machen; s.a. Bsp. 35-2, Navigator Nr.35 – Scharnierverbindung der Teile eines zusammengesetzten Schiffs. Bsp. 07-3. Einer der Ausstellungspavillons der Firma Siemens mit einem beweglichen Sonnenschutzsystem auf der gesamten Höhe des Gebäudes.
08 PERIODISCHE FUNKTION a) b) c)
Übergang von einer stetigen Funktion zu einer periodischen (Impuls); Wenn die Funktion bereits periodisch abläuft, die Perioden ändern; Die Pausen zwischen den Impulsen für andere Funktionen verwenden.
Bsp. 08-1. Das Verfahren der gesteuerten Wärmebearbeitung von Maschinenteilen, unter Verwendung des lokalen Einwirkens eines Kühlmittels in einem Impulsregime, das durch Steuerparametern der in Impulsen erfolgenden Zugabe des Kühlmittels für die Gesamtheit der zu kühlenden Zone gesteuert wird. (s. a. Navigator Nr. 12). Bsp. 08-2. Parallel angebrachte Schiffsschrauben mit sich überschneidenden Bewegungsbahnen, die so synchronisiert sind, dass sich die Flügel einer jeden Schiffsschraube genau im Bereich zwischen den Flügeln der anderen befinden (s.a. Navigator Nr. 34)
09 VERÄNDERUNG DER FÄRBUNG a) b) c) d)
Die Farbe eines Objekts oder die seiner Umgebung ändern; Die Stufe der Durchsichtigkeit eines Objekts oder seiner Umgebung ändern; Zur Beobachtung schlecht sichtbarer Objekte oder Prozesse Farbzusätze verwenden; Wenn solche Zusätze bereits verwendet werden, Leuchtstoffe verwenden.
Bsp. 09-1. Ein Bügeleisen mit Infrarotstrahler und einem durchsichtigen Boden. Bsp. 09-2. Dem Strom eines Arbeitsstoffes (Luft – im Windkanal; Wasser oder eine andere Flüssigkeit – im hydrodynamischen Kanal) wird ein Farbzusatz beigefügt, der eine Videoüberwachung der Prozesse der Bewegung des Arbeitsstoffes in Bezug zum getesteten Objekt ermöglicht. Bsp. 09-3. Es werden Leuchtfäden Materialien beigefügt, woraus Wertpapiere und Geldscheine hergestellt werden.
358
Anlage 4 Katalog A-Navigatoren
10 KOPIEREN a) b) c)
Anstelle eines schwer zugänglichen, komplizierten, teuren, nicht passenden oder zerbrechlichen Objekts, eine vereinfachte, billigere Kopie verwenden; Ein Objekt oder ein System von Objekten durch optische Kopien ersetzen (Darstellungen); dabei die Veränderung des Maßstabs verwenden (die Kopie vergrößern oder verkleinern); Wenn sichtbare Kopien verwendet werden, dann können sie durch Infrarot- oder Ultraviolettkopien ersetzt werden.
Bsp. 10-1. Schaufensterpuppen oder Roboter räumlich oder als Fläche, vergrößert, verkleinert oder in realer Größe; transportabel oder fest stehend; „sprechend“ oder „singend“ u.ä. – um die Aufmerksamkeit von Passanten, die an Cafés, Geschäften, Reisebüros, Ausstellungsräumen u.ä. vorübergehen, zu erregen. Bp. 10-2. Auf einer „flachen“ Röntgenaufnahme werden gleichzeitig Aufnahmen von maßstabgerechten horizontalen und vertikalen Linien; auf stereoskopischen Röntgenaufnahmen wird eine Aufnahme eines „stereoskopischen Messwürfels“ gemacht, was die Möglichkeit bietet die genaue Position eines Krankheitsherdes im dreidimensionalen Raum zu bestimmen. Bsp. 10-3. „Naturgetreue“ holographische Darstellung wertvoller Gegenstände, wie Gemälde oder Skulpturen.
11 ENTGEGENGESETZT a) b) c)
Anstelle einer Aktion, die von den Bedingungen der Aufgabe her vorgegeben ist, eine entgegengesetzte Aktion vollziehen (ein Objekt nicht abkühlen, sondern erhitzen); Ein bewegliches Teil eines Objekts (oder der Außenwelt) unbeweglich machen, und unbewegliche - beweglich; Ein Objekt „auf den Kopf stellen“, oder es umdrehen.
Bsp. 11-1. Beim Schneiden von Metallen muss das Werkzeug gekühlt werden. Zu diesem Zweck wird es mit einer Kühlflüssigkeit begossen, dabei wird aber auch das bearbeitete Teil abgekühlt. Es wurde eine Technologie entwickelt, mit einer lokalen Kühlung des Werkzeugs, jedoch mit einer Lasererhitzung (!) des Schnittbereichs, was die Wirtschaftlichkeit und Bearbeitungsqualität erhöht. (s. a. Navigator Nr. 21). Bsp. 11-2. Viele Trainingsgeräte und Testanlagen: der Sportler bewegt sich bezogen auf den Raum (Boden) nicht voran, hingegen bewegt sich ein beweglicher Generator voran - in Schwimmbecken wurde eine gerichtete Strömung für das Training von Schwimmern und Wasserskiläufern installiert; in speziellen Bassins werden Tests von speziellen Schiffsmodellen und Unterwassergeräten durchgeführt; in Windkanälen werden Flugapparate mit „starken“, auch im Ultraschallbereich liegenden Luftstößen, getestet. Bsp. 11-3. Damit beim Meißeln keine Späne auf das Werkstück fallen, wird der Meißel von unten installiert.
12 LOKALE EIGENSCHAFT a) b) c)
Von einer gleichartigen Struktur des Objekts (der Außenwelt, äußerer Einflüsse) zu verschiedenartigen übergehen: Verschiedene Teile eines Objekts sollen verschiedene Funktionen haben; Jedes Objekt soll sich unter solchen Bedingungen befinden, die seiner Arbeit am besten entsprechen.
Bsp. 12-1. Ein Straßenbahn-Autobus hat metallische Räder für die Fortbewegung auf Schienen und hat gewöhnliche Autoräder für die Fortbewegung auf Streckenabschnitten ohne Gleise, wobei die Autoräder bei der Fortbewegung auf den Gleisen als Antrieb dienen, die Metallräder dienen nur der Ausrichtung der Bewegung. Bsp. 12-2. Eine Siliziumsolarzelle ist für die Ausrichtung in eine optimale Stellung zur Sonneneinstrahlung, mit einem Vorschubantrieb ausgestattet . Bsp. 12-3. Trainingsgeräte in Sportzentren, die für das Training bestimmter Muskelgruppen bestimmt sind.
Anlage 4 Katalog A-Navigatoren
359
13 BILLIGERE NICHTLANGLEBIGKEIT ALS ERSATZ FÜR TEURE LANGLEBIGKEIT Ein teueres Objekt durch einen Gruppe billiger Objekte ersetzen, wobei auf bestimmte Eigenschaften verzichtet wird (z.B. Langlebigkeit). Bsp. 13-1. Einwegtaschentücher wie „TEMPO“, ein Patent der Firma „Procter & Gamble“. Bsp. 13-2. Schmelz- oder Streifensicherungen zum Schutz elektrischer Geräte vor Überlastungen.
14 VERWENDUNG VON PNEUMATISCHEN ODER HYDRAULISCHEN KONSTRUKTIONEN Anstelle fester Teile eines Objekts gasförmige und flüssige verwenden: aufblasbare und hydraulisch füllbare, Luftkissen, hydrostatische oder hydroreaktive. Bsp. 14-1. Der hydraulische Wagenheber, in dem die Arbeitsflüssigkeit in übereinander installierten elastischen Kissen mit der benötigten Anzahl komprimiert wird, die eine Last anheben und halten können. Bsp. 14-2. Eine luftgetriebene oder hydraulische Andrückvorrichtung, dessen Arbeitsgerät ein elastisches Kissen ist, dass mit gleichmäßigem Druck das anzudrückende Teil festhält. Bsp. 14-3. Traglufthallen für Ausstellungspavillons, und „Bauwerke“ für kurze Zeit, wie Spielzelte für Kinder; aufblasbare und mit Wasser füllbare Hüllen für die Herstellung von Matratzen und transportablen Schwimmbecken.
15 VERWERFEN UND REGENERATION VON TEILEN a) b)
Teile, die ihre Aufgabe erfüllt haben und nicht mehr notwendiger Bestandteil eines Objektes sind, müssen verworfen werden (aufgelöst, verdampft u.ä.); Verbrauchte Teile eines Objekts müssen unmittelbar während der Arbeit wieder hergestellt werden.
Bsp. 15-1. Düsenflugzeuge oder Raketen können mit zusätzlichen Treibstoffbehältern für den Start ausgestattet werden, die danach abgeworfen werden können. Bsp. 15-2. Zum Golfspielen auf Kreuzschiffen, werden die Bälle aus einem speziellen Material hergestellt, das für Fische unschädlich ist und sich schnell zersetzt. Bsp. 15-3. Bei der Methode zur Erforschung von Bereichen mit sehr hohen Temperaturen wird in den zu untersuchenden Bereich ununterbrochen eine schmelzende Lichtleitersonde eingeführt und das mit einer Geschwindigkeit, die nicht geringer als die Schmelzgeschwindigkeit ist.
16 PARTIELLE ODER ÜBERSCHÜSSIGE WIRKUNG Wenn es schwierig ist, den geforderten Effekt 100%-ig zu erreichen, soll man versuchen, etwas weniger oder etwas mehr zu erreichen. Die Aufgabe kann sich dadurch wesentlich vereinfachen. Bsp. 16-1. Die Methode des Färbens von Teilen durch Tauchen in eine Farbwanne mit anschließendem Schleudern, zur Entfernung überschüssiger Farbe und Trocknung, in einer Zentrifuge . Bsp. 16-2. Zur Verbesserung der Haltbarkeit einiger Obst- und Gemüsearten werden sie in einem nicht völlig reifen Zustand geerntet, da sie ihre vollständige Reife auch ohne Verbindung mit der Pflanze erreichen können, das ermöglicht den Transport während des Reifeprozesses und eine längere Lagerhaltung.
360
Anlage 4 Katalog A-Navigatoren
17 VERWENDUNG VON VERBUNDSTOFFEN Von homogenen Materialien zu Verbundstoffen übergehen. Bsp. 17-1. Die Teile einer Autokarosserie bestehend aus Verbindungen von Stahl und Aluminium, „Stahl-Schaumaluminium“ und, perspektivisch gesehen, eventuell „Stahl-SchaumaluminiumSchaumstahl“ – hohe Festigkeit verbindet sich mit hoher Absorptionskraft von Vibrationen und einem geringen Gewicht, was vom Verfahren her mit anderen Materialien nicht möglich ist.
18 VERMITTLER a) b)
Ein Zwischenobjekt verwenden, das eine Aktion weiterleitet oder überträgt; Zeitweise ein Objekt mit einem anderen (leicht wieder zu entfernenden) Objekt verbinden.
Bsp. 18-1. Das System zur Lenkung von Autorädern beinhaltet eine „Vermittlereinrichtung“ – den Servoverstärker. Bsp. 18-2. Die Scheiben von Trainingshanteln im Fitness Centre sind mit Gummi beschichtet, um die Geräusche beim Absenken der Hantel auf den Boden zu reduzieren. Bsp. 18-3. Zum Schutz bestimmter Bereiche integrierter Schaltkreise vor Strahlungseinwirkungen werden diese Bereiche mit einem Schutzstoff, der später wieder leicht entfernt werden kann, überzogen (durch Aufsprühen oder Aufwachsen).
19 ÜBERGANG IN EINE ANDERE DIMENSION a)
b) c)
Ein Objekt wird so gestaltet, dass es sich nicht nur linear bewegt bzw. platziert ist, sondern in zwei Dimensionen (d.h. auf einer Ebene), möglich ist auch eine Verbesserung beim Übergang von der Bewegung auf einer Ebene zur Bewegung im Raum; Eine Bauart in mehreren Etagen ausführen; das Objekt neigen oder es auf die Seite drehen, die Rückseite des entsprechenden Raums nutzen; Optische Ströme, die auf benachbarten Raum oder die Rückseite des vorhandenen Raums fallen.
Bsp. 19-1. Lagerregale in großen Geschäften, die sich unmittelbar unter den Verkaufsflächen befinden; mehretagige Garagen für Boote mit Aufzügen. Bsp. 19-2. Zeichentische mit verstellbarem Neigungswinkel der Arbeitsoberfläche (s. auch Navigator Nr. 07) Bsp. 19-3. Gebrauchsanweisungen oder Spiele (zu Werbezwecken), die sich auf der Innenseite der Verpackung befinden.
20 UNIVERSALITÄT Ein Objekt erfüllt gleichzeitig mehrere verschiedene Funktionen, dadurch werden andere Objekte nicht benötigt. Bsp. 20-1. Der universelle Fahrradschlüssel, mit Öffnungen für alle notwendigen Größen von Muttern. Bsp. 20-2. Das universelle Kombiauto. Bsp. 20-3. Multifunktionelle Musikanlagen.
Anlage 4 Katalog A-Navigatoren
361
21 SCHADEN IN NUTZEN UMWANDELN a) b) c)
Schädliche Faktoren verwenden (im besonderen schädliche Einwirkungen der Außenwelt), um einen nützlichen Effekt zu erreichen; Einen negativen Faktor durch Zusammenlegen mit anderen negativen Faktoren beseitigen; Den schädlichen Faktor so verstärken, bis er nicht mehr schädlich ist.
Bsp. 21-1. Auf Asphalt werden Gummibrocken aufgeschüttet, die durch eine spezielle Zerkleinerung von Altreifen gewonnen werden (Abfälle, die ja irgendwo gelagert werden müssen), dadurch erhöht sich die Elastizität der Straßenoberfläche, was die Lärmbelästigung senkt, den Verschleiß der Autoreifen reduziert und verzögert somit den Prozess des „Auftauchens“ von zusätzlichen verschlissenen Autoreifen. S. Navigator Nr. 11: Wärmeeinwirkung wird erhöht, jedoch gerichtet und lokalisiert.
22 SPHÄROIDALITÄT a)
b) c)
Von geradlinigen Teilen der Objekte zu krummlinigen übergehen, von glatten Flächen zu sphärischen; von Teilen, welche die Form von Würfeln oder Parallelepipedons haben zu kugelförmigen Konstruktionen; Rollen, Kugeln, Spiralen verwenden; Zu Drehbewegungen unter Nutzung der Fliehkraft übergehen.
Bsp. 22-1. Möbel für Kinderzimmer ohne scharfkantige Bauelemente. Bsp. 22-2. Transporteinrichtungen für Bauteile, die nach der „Selbstlauf“ – Methode funktionieren. Sie werden in verschiedener Höhe installiert, haben die Form einer Spirale mit bestimmten Winkeln, die eine zu hohe Geschwindigkeit der Teile beim Durchlauf verhindern. Bsp. 22-3. Für eine bessere Widerstandsfähigkeit gegen Verschleiß werden Elektroden für das Punktschweißen in Form von rotierenden Rollen verwendet.
23 VERWENDUNG INERTER MEDIEN a) b)
Ein gewöhnliches Medium durch ein inertes ersetzen; Einen Prozess im Vakuum ausführen.
Bsp. 23-1. Um die Brandgefahr für Baumwolle bei der Lagerung zu verringern, wird die Baumwolle mit Edelgas behandelt. Bsp. 23-2. Die Bearbeitung von Siliziumplatinen in einem Medium aus Edelgas; das Durchführen verschiedener Operationen im Vakuum, so z.B. das Aufsprühen durch Verdampfen im Vakuum, Ionenlegierung u.a.
24 ASYMMETRIE a) b)
Von einer symmetrischen Form eines Objekts zu einer asymmetrischen übergehen; Wenn das Objekt bereits asymmetrisch ist, den Grad der Asymmetrie erhöhen.
Bsp. 24-1. Im Unterschied zu anderen Schiffen haben Flugzeugträger eine asymmetrische Konstruktion des Hauptdecks: dem Startstreifen gegenüber befindet sich der Landestreifen, und seitlich davon – die Kommandozentrale; so können Starts und Landungen voneinander unabhängig durchgeführt werden. Bsp. 24-2. Der Lichtstrahl des rechten Scheinwerfers bei einem Auto ist geradeaus gerichtet, der linke hingegen nach rechts. Bsp. 24-3. Kinderbücher sind oft asymmetrisch gestaltet, mit schiefen Kanten an verschiedenen Ecken, sind kompliziert zurecht geschnitten – um die Aufmerksamkeit der Kinder zu wecken.
362
Anlage 4 Katalog A-Navigatoren
25 VERWENDUNG FLEXIBLER HÜLLEN UND DÜNNER SCHICHTEN a) b)
Anstelle üblicher Konstruktionen werden flexible Hüllen und dünne Schichten benutzt; Objekte von der Außenwelt durch flexible Hüllen oder dünne Schichten isolieren.
Bsp. 25-1. Dünnschicht-Konstruktionen in der Mikroelektronik. Bsp. 25-2. Dekorative galvanische, geklebte oder aufgesprühte Überzüge in Form einer Schicht: für die Bearbeitung von Spiegeln und Geschirr – aus Metall und anderen Stoffen, für die Herstellung von optischem und Autoglas, von mehrschichtigem Panzerglas u.ä. Bsp. 25-3. Verschiedenartige Treibhäuser und Frühbeete.
26 PHASENÜBERGÄNGE Ausnutzung von Erscheinungen, die bei Phasenübergängen auftreten, wie z.B. Veränderung des Volumens, Abgabe oder Aufnahme von Wärme u.ä. Bsp. 26-1. Der Aufbau eines Wärmerohrs für die Wärmeübertragung von einer erhitzten Zone in eine kalte (zu erwärmende) mit Hilfe der Verdampfung eines Wärmeträgers an dem Rohrende mit der hohen Temperatur (mit Wärmeabsorption) und das Kondensieren dieses Wärmeträgers am Rohrende mit der niedrigen Temperatur (mit Abgabe der Wärme). Bsp. 26-2. Dünnwandige Plastikbehälter gefüllt mit Eiswürfeln, werden in Transportcontainer gelegt und dienen der kurzfristigen Kühlung wärmeempfindlicher Materialien wie Medikamente oder Lebensmittel beim Transport.
27 AUSNUTZUNG DER AUSDEHNUNG BEIM ERWÄRMEN a) b)
Ausnutzung der Wärmeausdehnung (oder des Zusammenziehens) von Materialien; Verwendung von Materialien mit unterschiedlichen Wärmeausdehnungskoeffizienten.
Bsp. 27-1. Bimetallplatten aus Materialien mit unterschiedlichen Wärmeausdehnungskoeffizienten werden für die Öffnen und Schließen von Stromkreisen verwendet, bei Erhöhung oder Absenkung der Kontrolltemperatur. Bsp. 27-2. Der Aufbau von Treibhausdächern bestehend aus Röhren, die durch Scharniere miteinander verbunden sind und in denen sich eine leichtverdunstende Flüssigkeit befindet. Bei Temperaturänderungen ändert sich der Schwerpunkt der Röhren und so hebt sich das Dach des Treibhauses, bei steigenden Außentemperaturen selbständig an und senkt sich bei fallenden Temperaturen.
28 VORHER UNTERGELEGTES KISSEN Die relativ geringe Sicherheit eines Objekts durch vorher integrierte Sicherheitsvorkehrungen. Bsp. 28-1. Airbags in Kraftfahrzeugen; Rettungsboote, -ringe, -westen, aufblasbare Flöße (Rettungsinseln) usw. auf Schiffen und in Flugzeugen. Bsp. 28-2. Notausfahrten mit „Fangvorrichtungen“ an Bergstraßen für den Fall eines Motor- oder Bremsversagens. Bsp. 28-3. Feuerlöscher an gut zugänglichen Stellen in Gebäuden, die leicht und ohne große Vorbereitung angewendet werden können.
29 SELBSTBEDIENUNG a) b)
Das Objekt soll sich selbst bedienen, in dem es Hilfs- und Reparaturfunktionen ausführt; Abfälle verwerten (Energie, Stoffe).
Bsp. 29-1. Ein Reifen mit einer integrierten Ampulle mit einem Stoff zur automatischen Reparatur kleiner Risse. Bsp. 29-2. Die Heizung eines Autos verwendet die „geschenkte“ Abwärme des laufenden Motors.
Anlage 4 Katalog A-Navigatoren
363
30 VERWENDUNG STARKER OXIDATIONSMITTEL a) b) c) d) e)
Gewöhnliche Luft durch angereicherte ersetzen; Angereicherte Luft durch Sauerstoff ersetzen; Auf Luft oder Sauerstoff mit ionisierenden Strahlungen einwirken; Die Verwendung ozonisierten Sauerstoffs; Ozonisierten oder ionisierten Sauerstoff durch Ozon ersetzen.
Bsp. 30-1. Plasmabogen-Schneiden von rostfreiem Stahl in einem Medium reinen Sauerstoffs. Bsp. 30-2. Kurzzeitige, intensive Bearbeitung von Lagerhallen und des dort gelagerten Obst oder Gemüses.
31 VERWENDUNG PORÖSER MATERIALIEN a) b)
Ein Objekt porös gestalten oder zusätzliche poröse Elemente verwenden (Einlagen, Überzüge u.ä.); Wenn das Objekt bereits aus porösem Material besteht, können die Poren vorher mit irgendwelchen Stoffen gefüllt werden.
Bsp. 31-1. Gleitlager, Turbinenschaufeln usw., werden aus porösen Materialien hergestellt, deren Poren mit notwendigen Schmier- bzw. Kühlstoffen ganz oder teilweise gefüllt sind. Bsp. 31-2. Verschiedenartige medizinische oder kosmetische Kompressen, Verbände oder Masken usw., die mit desinfizierenden, schmerzstillenden, heilenden oder vitaminhaltigen Präparaten getränkt sind.
32 GEGENGEWICHT a) b)
Das Gewicht eines Objekts durch seine Verbindung mit einem anderen kompensieren, das eine Hubkraft hat; Das Gewicht eines Objekts durch die Wechselwirkung mit der Außenwelt kompensieren (durch aero- oder hydrodynamische u.a. Kräfte).
Bsp. 32-1. Heißluftballons, Luftschiffe, Fallschirme, Schiffe, U-Boote; die patentierte Idee eines bei Überschwemmungen schwimmfähigen Hauses – der Keller ist in Form eines Pontons gestaltet und mit Schaumstoff gefüllt. Bsp. 32-2. Schnellboote mit Unterwassertragflächen.
33 SCHNELLER SPRUNG Einen Prozess oder einzelne seiner Etappen (schädliche oder gefährliche) mit hoher Geschwindigkeit ausführen. Bsp. 33-1. Im Bsp. 40-2 (Navigator Nr. 40) „springt“ der Laserstrahl in Sekundenschnelle über die Fotoschablone, in dem er sich vom vorherigen (dem „weglaufendem“) zum nächsten (dem „ankommenden“) Spiegel bewegt, und fällt somit nie auf eine „unerwünschte Stelle“ auf der herzustellenden Fotoschablone. Bsp. 33-2. Die Apparatur zum Zerschneiden von elastischen (aus Plastik u.a. Materialien) dünnwandigen Röhren großen Durchmessers, in denen das Messer so schnell die Röhren durchtrennt, dass sie es gar nicht schafft sich zu verformen.
34 MATRJOSCHKA a) b)
Ein Objekt befindet sich im Innern eines anderen Objekts, das seinerseits sich wiederum im Innern eines dritten befindet usw.; Ein Objekt verläuft durch einen Hohlraum in einem anderen Objekt.
Bsp. 34-1. Teleskopangeln; der ausfahrbare Arm des Mechanismus bei Hebebühnen für KFZ.
364
Anlage 4 Katalog A-Navigatoren
35 VEREINIGEN a) b)
Gleichartige oder für benachbarte Operationen bestimmte Objekte vereinigen; Zeitweise gleichartige oder für benachbarte Operationen bestimmte Objekte vereinigen.
Bsp. 35-1. Raketenantriebssysteme aus 4, 6, 8 oder mehr einzelnen Motoren. Bsp. 35-2. Zusammengesetzte See- und Flussschiffe, bestehend aus verschiedenen Teilen, die selbst keinen Antrieb haben und einem oder mehreren Teilen mit Antrieb. Die Teile können fest oder über Scharniere miteinander verbunden sein.
36 RÜCKKOPPLUNG a) b)
Eine Rückkopplung herstellen; Wenn es sie bereits gibt, sie verändern.
Bsp. 36-1. Ein Gerät zum Aufrechterhalten einer vorgegebenen Geschwindigkeit misst ununterbrochen die echte Geschwindigkeit und entsprechend eventueller Abweichungen erhöht es bzw. senkt es die Zufuhr von Brennstoff an den Motor, wie es auch ein erfahrener Kraftfahrer macht.
37 ÄQUIVALENTES POTENTIAL Die Arbeitsbedingungen so verändern, dass es nicht nötig ist, ein Objekt anzuheben oder nach unten zu bewegen. Bsp. 37-1. Badewanne mit seitlichen Griffen, um alten oder immobilen Menschen den Ein- / Ausstieg zu erleichtern (ein System der Schnellentleerung ist auch sinnvoll). Bsp. 37-2. „Übergänge“ die Gebäude auf einer oder mehreren Etagen miteinander verbinden.
38 GLEICHARTIGKEIT Objekte, die in Wechselwirkung mit dem entsprechenden Objekt stehen, müssen aus dem selben Material gefertigt sein (oder einem von den Eigenschaften her ähnlichen). Bsp. 38-1. Die Kontakte innerhalb mikroelektronischer Schaltkreise sind durch Leiter miteinander verbunden, die aus demselben Material bestehen, meist aus Gold. Bsp. 38-2. Zahnräder, die bei der Kraftübertragung miteinander in Wechselwirkung stehen werden in der Regel aus demselben Material hergestellt, um ungleichmäßigen Verschleiß zu vermeiden.
39 VORHERIGE GEGENWIRKUNG Wenn von den Bedingungen her eine Aufgabe, eine Aktion voraussetzt, muss man vorher eine Gegenaktion durchführen. Bsp. 39-1. Im Voraus gespannter Stahlbeton: damit der Beton besser arbeitet, wird er für seine Ausdehnung vorher durch Pressen „verkürzt“. Bsp. 39-2. Die Gleisbetten von Eisenbahnen sind in den Kurven seitlich geneigt, in der entgegengesetzten Richtung der wirkenden Fliehkräfte bei Kurvenfahrten.
40 UNUNTERBROCHENE NÜTZLICHE FUNKTION a) b)
eine Arbeit ununterbrochen ausführen (alle Teile eines Objekts müssen immer mit voller Belastung arbeiten); Leerlauf und Unterbrechungen beseitigen.
Bsp. 40-1. Die Methode, bei der ein Laserstrahl eine „Zeichnung“ auf einer Fotoschablone durch Hinund Herbewegung des Strahls erstellt (Verfahren des „pendelnden“ Spiegels). Bsp. 40-2. Die Methode, bei der ein Laserstrahl eine „Zeichnung“ auf einer Fotoschablone nur durch geradeaus gerichtete Strahlen erzeugt, ohne Leerlauf beim Übergang, da er von einem anderen Spiegel reflektiert wird, der den vorherigen ablöst (Verfahren der „sich drehenden“ Spiegel).
365
Anlage 5
KATALOG Fundamentale Transformationen
Nr.
Bezeichnung
Inhalt
Beispiel
01
Zerteilen im Raum
Die eine Eigenschaft wird in einem Bereich des Raums realisiert, und die entgegengesetzte in einem anderen.
Sich überschneidende Wege werden auf unterschiedliche Niveaus verlagert – einer verläuft höher als der andere
02
Zerteilen in der Zeit
Die eine Eigenschaft wir Arbeit einer Ampel an in einem Zeitintervall einer Kreuzung. realisiert und die entgegengesetzte in einem andere.
03
Zerteilen in der Struktur
04
Zerteilen im Stoff (Energie)
Ein Teil eines Systems verfügt über die eine Eigenschaft und das System als ganzes über die entgegengesetzte Ein Stoff oder ein Energiefeld (oder ihre Teile) haben für ein Ziel eine Eigenschaft und für ein anderes Ziel die entgegengesetzte.
Eine flexible Fahrradkette besteht aus festen Elementen.
Wasser (flüssig) wird in einem Rohr gefroren und schafft so einen vorübergehenden Pfropfen (fest) für die Reparatur des Rohrs
366
Anlage 6 KATALOG Fundamentale Transformationen und A-Kompakt-Standards Grundmodell 1 Zerteilen im Raum
2 Zerteilen in der Zeit
Erweiterte Transformationen 1.1. Zerteilen der widersprüchlichen Eigenschaften im Raum
Bsp. 1. Zur Unterdrückung von Staubbildung bei Arbeiten im Bergwerk sollten die Wassertropfen klein sein. Kleine Tropfen bilden jedoch Nebel. Es wird empfohlen, die kleinen Tropfen mit einem Kegel aus großen Tropfen zu umgeben.
2.1. Zerteilen der widersprüchlichen Eigenschaften in der Zeit
Bsp. 2 (Standard S2 - 2.2.3 ). Die Breite einer Bandelektrode wird entsprechend der Breite der Schweißnaht verändert.
3.1. Systemübergang 1-a: Vereinigung gleichartiger Systeme in ein Suprasystem
Bsp. 3 (Standard S4 - 3.1.1). Gussbrammen (heiße Metallblöcke) werden auf Rollbahnen eng aneinander liegend transportiert, damit die Frontseiten nicht abkühlen.
3.2. Systemübergang 1-b: vom System zum Antisystem oder Verbindung des Systems mit dem Antisystem
Bsp. 4 (Standard S4 - 3.1.3). Methode zum Blutstillen – es wird auf die Wunde eine Kompresse aufgelegt, die mit Blut einer anderen Blutgruppe getränkt wurde.
3.3. Systemübergang 1-c: das gesamte System wird mit der Eigenschaft C ausgestattet, und seine Teile mit der Eigenschaft Anti-C.
Bsp. 5 (Standard S5 - 3.1.5). Die tragenden Teile von Schraubstöcken zum Zusammenpressen von Bauelementen mit komplizierter Form: jedes Teil (eine Stahlmuffe) ist fest, insgesamt jedoch ist der Druck in seiner Art veränderlich.
3.4. Systemübergang 2: Übergang zu einem System, das auf der Mikroebene arbeitet
Bsp. 6 (Standard S5 - 3.2.1). Anstelle eines mechanischen Krans wird ein „Thermokran“ verwendet, der aus zwei Materialien besteht, die verschiedene Koeffizienten der linearen Ausdehnung haben. Bei Erwärmen entsteht ein Schlitz.
3 Zerteilen in der Struktur
Beispiel
in Klammern sind sowohl die Nummern der Kompaktstandards, z.B. S2, als auch die Nummern des Standards aus dem vollständigen Katalog der TRIZ, z.B. 2.2.3 verzeichnet.
Anlage 6 Fundamentale Transformationen und A-Kompakt Standards 367
4 Zerteilen im Stoff (Energie)
4.1. Phasenübergang 1: Veränderung des Phasenzustandes eines Teils des Systems oder der Umgebung
Bsp. 7 (Standard S2 - 5.3.1). Verfahren bei der Gasversorgung in Bergwerken - Es wird komprimiertes Gas transportiert.
4.2. Phasenübergang 2: „Doppelzustand“ eines Systemteils (Übergang dieses Systemteil von einen Zustand in einen anderen in Abhängigkeit von den Funktionsbedingungen)
Bsp. 8 (Standard S2 - 5.3.2). Wärmeüberträger haben anliegende Lamellen aus Nickel-Titan (einem Stoff, der Formen speichern kann); um die Temperatur zu erhöhen, werden die Lamellen ausgefahren, und so vergrößert sich die Nutzfläche zur Kühlung.
4.3. Phasenübergang 3: Ausnutzung von Erscheinungen, die den Phasenübergang begleiten
Bsp. 9 (Standard S2 - 5.3.3). Vorrichtungen zum Transport von Gefriergut haben Stützelemente, in Form von Eisklötzen (Verringerung der Reibung durch Tauen des Eises).
4.4. Phasenübergang 4: Ersatz eines einphasigen Stoffs durch einen zweiphasigen
Bsp. 10 (Standards S2 - 5.3.4 und 5.3.5). Verfahren zum Polieren. Der Arbeitsstoff besteht aus einer Flüssigkeit (geschmolzenes Blei) und ferromagnetischen Reibeteilchen.
4.5. Physikalischchemischer Übergang: Entstehen und Verschwinden eines Stoffs durch Zerlegen, Verbinden, Ionisieren Rekombinieren.
Bsp. 11 (Standards S1 - 5.5.1 und 5.5.2). Zur Plastifizierung von Holz. (Erhöhung der Elastizität und Nachgiebigkeit bei der Bearbeitung). Das Holz wird in Ammoniak getaucht und so mit Ammonsalzen durchtränkt, die sich bei Reibung zersetzen.
368
Anlage 7 KATALOG Fundamentale Transformationen und spezialisierte A-Navigatoren Transformationsprinzip
Verbindung zu den A-Navigatoren
05 Ausgliedern: das störende Teil ausgliedern, das notwendige Teil hervorheben. Aufteilen der 10 Kopieren: Verwendung von vereinfachten und preiswerteren Kowidersprüch- pien. lichen Eigen- 19 Übergang in eine andere Dimension: den Freiheitsgrad der Beweschaften im gung eines Objekts erhöhen, Bauarten in mehreren Schichten, seitliche Raum und andere Oberflächen ausnutzen. 22 Sphäroidalität: Übergang zu krummlinigen Oberflächen und Verlaufsformen, Verwendung von Rollen, Kugeln oder Spiralen. 24 Asymmetrie: Übergang zu asymmetrischen Formen, Asymmetrie vergrößern. 25 Verwendung flexibler Hüllen und dünner Schichten: anstelle üblicher Konstruktionen flexible Hüllen und dünne Schichten verwenden. 34 Matrjoschka: nach und nach ein Objekt in einem anderen unterbringen, ein Objekt im Hohlraum eines anderen platzieren.
1
02 Vorherige Wirkung: die notwendige Wirkung vollständig oder teilweise ausführen; die Objekte so anordnen, dass sie schneller in AkAufteilen der tion treten können. widersprüch- 07 Dynamisierung: ein Objekt (oder dessen Teile) beweglich machen, lichen Eigen- die Charakteristika des Prozesses (des Objekts) bei jedem Arbeitsgang optimieren. schaften in der Zeit 08 Periodische Wirkung: Übergang von einer stetigen Wirkung zu einer periodischen, Veränderung der Periodizität, Unterbrechungen der Wirkung. 18b Vermittler: ein Objekt für bestimmte Zeit mit einem anderen (leicht zu entfernendem) verbinden. 28 Vorher untergelegtes Kissen: vorhergehend bereits eventuelle Störungen berücksichtigen. 33 Schneller Sprung: einen Prozess stark beschleunigen, damit schädliche Folgen gar nicht erst auftreten können. 35.b Verbinden: Gleichartige oder benachbarte Operationen zeitlich verbinden 39 Vorherige Gegenwirkung: um die Hauptwirkung auszuführen, muss vorhergehend eine Gegenwirkung ausgeführt werden. 40 Ununterbrochene nützliche Funktion: Leerlauf und Unterbrechungen beseitigen, alle Teile eines Objekts müssen immer mit voller Belastung arbeiten.
2
Anlage 7 Fundamentale Transformationen und A-Verfahren
369
03 Zerteilen: das Objekt in Teile zerlegen, den Grad der „Zerteiltheit“ erhöhen. Aufteilen der 11 Entgegengesetzt: anstelle der Handlung, die von den Umständen widersprüch- vorgegeben zu sein scheint, das Gegenteil tun. lichen Eigen- 12 Lokale Eigenschaft: Übergang von einer gleichartigen Struktur zu schaften in einer verschiedenartigen, so dass jedes Teil seine Funktion unter bestder Struktur möglichen Bedingungen ausführen kann. 15 Verwerfen und der Regeneration von Teilen: ein ausgedientes Teil kann verworfen oder während der Zeit seiner Funktion regeneriert werden. 18.a Vermittler: ein vermittelndes Objekt verwenden, um eine Aktion zu übertragen. 35.a Verbinden: Verbinden gleichartiger oder für benachbarte Operationen bestimmter Objekte
3
4 Aufteilen der widersprüchlichen Eigenschaften im Stoff
01 Veränderung des Aggregatzustandes eines Objekts: Veränderung der Konzentration oder Konsistenz, Ausnutzen von Eigenschaften wie Elastizität von Materialien u.ä. 17 Verwendung von Materialien, die aus mehreren Komponenten bestehen: Übergang von gleichartigen zu aus mehreren Komponenten bestehenden Materialien. 23 Verwendung inerter Medien: Ein Medium durch ein inertes ersetzen. Prozesse im Vakuum ablaufen lassen. 26 Verwendung von Phasenübergängen: Ausnutzung von Erscheinungen, die bei Phasenübergängen ablaufen: Veränderung des Volumens, Wärmeabgabe oder -aufnahme. 27 Verwendung der Wärmeausdehnung: die Wärmeausdehnung von Materialien ausnutzen, die Verwendung von Materialien mit unterschiedlicher Wärmeausdehnung. 29.b Selbstbedienung: Verwendung von Stoff- und Energieabfällen. 30 Verwendung starker Oxidationsmittel: Luft durch Sauerstoff ersetzen, auf die Luft mit Ionenstrahlen einwirken, Verwendung von Ozon. 31 Verwendung poröser Materialien: ein Objekt porös gestalten, poröse Teile mit irgendeinem Stoff ausfüllen. 38 Gleichartigkeit: miteinander wirkende Objekte aus ein und demselben Material herstellen.
370
Anlage 8 A-KATALOG Physikalische Effekte
Nr.
Geforderte Wirkung, Eigenschaft
Physikalische Erscheinung, Effekt, Methode
1
Temperaturmessung
Wärmeausdehnung und die dadurch hervorgerufene Veränderung der Frequenz von Eigenschwingungen. Thermoelektrische Erscheinungen. Strahlungsspektrum. Veränderung optischer, elektromagnetischer Eigenschaften von Stoffen. Überschreiten des Curie-Punkts. Hopkinson-Effekt. Barkhausen-Effekt. Wärmestrahlung
2
Absenken der Temperatur
Wärmeleitfähigkeit, Konvektion, Strahlung, Phasenübergänge Joule-Thompson-Effekt. Ranke-Effekt. Magnetkalorischer Effekt. Thermoelektrische Erscheinungen
3
Erhöhung der Temperatur
Wärmeleitfähigkeit, Konvektion, Strahlung. Elektromagnetische Induktion. Dielektrische Erwärmung. Elektronische Erwärmung. Elektrische Entladungen. Absorbieren einer Strahlung durch einen Stoff. Thermoelektrische Erscheinungen. Zusammenziehen eines Körpers. Kernreaktionen
4
Stabilisieren der Temperatur
Phasenübergänge (u.a. Überschreiten des Curie-Punktes). Wärmeisolation.
5
Indikation der Lage und Position eines Objekts
Einführen von Markierungen - Stoffen, die äußere Felder (Luminophore) umgestalten oder eigene Felder erzeugen (Ferromagneten) und deshalb leicht zu festzustellen sind. Reflexion oder Abstrahlen von Licht. Photoeffekt. Deformation. Röntgen- oder radioaktive Strahlung. Elektrische Entladungen. Doppler-Effekt. Interferenz.
6
Steuerung der Positionsänderung von Objekten
Einwirkung mit einem Magnetfeld auf ein Objekt oder auf einen Ferromagneten, der mit dem Objekt verbunden ist. Einwirken mit einem magnetischen Feld auf ein geladenes oder elektrisiertes Objekt. Druckübertragung durch Flüssigkeiten oder Gase. Mechanische Schwingungen. Zentrifugalkräfte. Wärmeausdehnung. Lichtdruck. Piezoeffekt. Magnus-Effekt.
7
Steuerung der Bewegung einer Flüssigkeit oder eines Gases
Kapillarität. Osmose. Elektroosmose. Thomson-Effekt. Bernoulli-Effekt. Wellenbewegung. Zentrifugalkräfte. WeißenbergEffekt. Versetzen von Flüssigkeiten mit Gas. Soret-Effekt.
8
Steuerung des Flusses von Aerosolen (Staub, Rauch, Nebel)
Elektrisieren. Elektrische und magnetische Felder. Lichtdruck. Kondensation. Schallwellen. Infraschall.
Anlage 8 A-Katalog Physikalische Effekte 9
Durchmischen von Gemischen
371
Bildung von Lösungen. Ultraschall. Kavitation. Diffusion. Elektrische Felder. Magnetfelder in Verbindung mit einem ferromagnetischen Stoff. Elektrophorese. Resonanz.
10 Zerlegen von Gemischen
Elektro- und Magnetseparation. Veränderung der scheinbaren Dichte einer Trennflüssigkeit unter Einwirkung elektrischer oder magnetischer Felder. Zentrifugalkräfte. Phasenübergänge. Diffusion. Osmose.
11 Stabilisieren der Position eines Objekts
Elektrische und magnetische Felder. Fixieren in Flüssigkeiten, die in magnetischen und elektrischen Feldern fest werden. Hygroskopischer Effekt. Reaktive Bewegung. Deformation. Schmelzen, Diffusionsschmelzen. Phasenübergänge.
12 Krafteinwirkung. Kraftregulierung. Schaffung von Hoch- und Unterdruck
Einwirken durch ein Magnetfeld durch einen ferromagnetischen Stoff. Phasenübergänge. Wärmeausdehnung. Zentrifugalkräfte. Veränderung hydrostatischer Kräfte durch Veränderung der scheinbaren Dichte einer magnetischen oder elektrisch leitenden Flüssigkeit innerhalb eines magnetischen Feldes.
13 Veränderung der Reibung (Friktion)
Johnson-Rabeck-Effekt. Strahlungseinwirkung. KragelskiErscheinung. Schwingungen. Einwirken eines magnetischen Felds durch ferromagnetische Teilchen. Phasenübergänge. Suprafluidität. Elektroosmose.
14 Zerstören eines Objekts
Elektrische Entladungen. Elektrohydraulischer Effekt. Resonanz. Ultraschall. Kavitation. Induzierte Strahlung. Phasenübergänge. Wärmeausdehnung. Sprengung.
15 Akkumulation von mechanischer und Wärmeenergie 16 Übertragung mechanischer, Wärme-, Strahlungs- und elektrischer Energie
Elastische Deformationen. Schwungräder. Phasenübergänge. Hydrostatischer Druck. Thermoelektrische Erscheinungen. Deformation. Schwingungen. Alexandrow-Effekt. Wellenbewegung. Unter anderem Stoßwellen. Strahlung. Wärmeleitfähigkeit. Konvektion. Erscheinung der Lichtreflexion (Lichtleiter). Induzierte Strahlung. Seebeck-Effekt. Elektromagnetische Induktion. Supraleitfähigkeit. Energieumwandlungen von einer Form in die andere, für eine Übertragung besser geeignete. Infraschall. Effekt der Formspeicherung.
17 Herstellen von Wechselwirkungen zwischen dem beweglichen (veränderlichen) und dem unbeweglichen (nicht veränderlichen) Objekt
Verwendung elektromagnetischer Felder (Übergang von „stofflichen“ Verbindungen zu „Feldverbindungen“). Ausnutzen des Flusses von Flüssigkeiten und Gasen. Effekt der Formspeicherung.
18 Größenordnung von Objekten
Größe der Frequenz der Eigenschwingungen. Auftragen und Ablesen magnetischer und elektrischer Parameter. Holographie.
372
Anlage 8 A-Katalog Physikalische Effekte
19 Veränderung der Größe und Form von Objekten
Wärmeausdehnung. Bimetallkonstruktionen. Deformationen. Magnetoelektrostriktion. Piezoelektrischer Effekt. Phasenübergänge. Effekt der Formspeicherung.
20 Kontrolle des Zustands und der Eigenschaften im Raum und auf der Oberfläche
Elektrische Entladungen, Reflexion des Lichts. Elektronenemission. Moire-Effekt. Strahlung. Holographie.
21 Veränderungen der Friktion. Adsorption. Diffusion. Bauschinger-Effekt. ElektriOberflächeneigen- sche Entladungen. Mechanische und akustische Schwingungen. schaften Bestrahlung. Verfestigung. Thermobearbeitung. 22 Kontrolle des Zustands und der Eigenschaften im Raum
Anbringen von Markierungen – von Stoffen, die äußere Felder umwandeln (Luminophore) oder, die eigen Felder erzeugen (Ferromagneten), die vom Zustand und den Eigenschaften des zu untersuchenden Objekts abhängen. Veränderung des spezifischen elektrischen Widerstands in Abhängigkeit von Veränderungen in der Struktur und von Eigenschaften des Objekts. Absorbieren, Reflektieren, Brechen des Lichts. Elektro- und magnetooptische Erscheinungen. Polarisiertes Licht. Röntgenund radioaktive Strahlung. Elektronische paramagnetische und kernmagnetische Resonanz. Magnetflexibler Effekt. Überschreiten des Curie-Punktes. Hopkinson- und BarkhausenEffekt. Messen der Eigenschwingungen eines Objekts. Ultraund Infraschall. Mößbauer-Effekt. Hall-Effekt. Holographie. Akustische Emission.
23 Veränderung der räumlichen Eigenschaften eines Objekts
Veränderung der Eigenschaften einer Flüssigkeit (Dichte, Viskosität) unter Einwirkung elektrischer und magnetischer Felder. Einbringen ferromagnetischer Teilchen und Einwirkung eines magnetischen Felds. Wärmeeinwirkung. Phasenübergänge. Ionisation und Einwirkung eines elektrischen Feldes. Ultraviolette, Röntgen- und radioaktive Strahlung. Diffusion. Elektrische und magnetische Felder. Bauschinger-Effekt. Thermoelektrische, thermomagnetische und magnetooptische Effekte. Kavitation. Photochromatischer Effekt. Innerer Photoeffekt. „Versetzen“ von Flüssigkeiten mit Gas, Aufschäumen. Hochfrequenzstrahlung.
24 Schaffen der vorgegebenen Struktur. Stabilisieren der Struktur eines Objekts
Interferenz von Wellen. Diffraktion. Stehende Wellen. MoireEffekt. Magnetische und elektrische Felder. Phasenübergänge. Mechanische und akustische Schwingungen. Kavitation.
Anlage 8 A-Katalog Physikalische Effekte
373
25 Anzeige elektrischer und magnetischer Felder
Osmose. Elektrisieren von Körpern. Elektrische Entladungen. Piezo- und seignettoelektrische Effekte. Elektrete. Elektronenemission. Elektrooptische Erscheinungen. Hopkinson- und Barkhausen-Effekt. Hall-Effekt. Kern-Magnet-Resonanz. Hydromagnetische und magnetooptische Erscheinungen. Elektrolumineszenz. Ferromagnetismus
26 Anzeige von Strahlung
Optisch-akustischer Effekt. Wärmeausdehnung. Photoplastischer Effekt. Elektrische Entladungen.
27 Generieren elektromagnetischer Strahlung
Josephson-Effekt. Erscheinung der induzierten Strahlung. Tunneleffekt. Lumineszenz. Hanne-Effekt. Cerenkov-Effekt. Zeemann-Effekt.
28 Steuerung elektromagnetischer Felder
Abschirmung. Veränderung des Zustands der Umgebung, z.B. Erhöhung oder Verringerung ihrer elektrischen Leitfähigkeit. Veränderung der Oberflächenform von Körpern, die mit Feldern interagieren. Pinch-Effekt.
29 Steuerung von Lichtströmen. Modulieren des Lichts
Brechen und Reflexion des Lichts. Elektro- und magnetooptische Erscheinungen. Photoflexibilität. Kerr- und FaradayEffekt. Hanne-Effekt. Franz-Keldysh-Effekt. Umwandeln eines Lichtstroms in ein elektrisches Signal und umgekehrt, stimulierte Strahlung.
30 Auslösen und Intensivieren chemischer Umwandlungen 31 Analyse der Zusammensetzung von Körpern
Ultraschall. Infraschall. Kavitation. Ultraviolette, Röntgen-, radioaktive Strahlung. Elektrische Entladungen. Deformation. Stoßwellen. Mizell-Katalyse. Erhitzen. Sorption. Osmose. Elektrische Felder. Strahlungseinwirkung. Analyse der Abstrahlung von Körpern. Optisch-akustischer Effekt. Mößbauer-Effekt. Elektronische paramagnetische und kernmagnetische Resonanz. Polarisiertes Licht.
374
Anlage 9 A-KATALOG Chemische Effekte
Nr.
Geforderte Wirkung, Eigenschaft
1
Temperaturmessung
Thermochrom-Reaktionen. Verschieben des chemischen Gleichgewichts bei Temperaturveränderung. Chemische Lumineszenz.
2
Absenken der Temperatur
Endotherme Reaktionen. Lösen von Stoffen. Aufspalten von Gasen.
3
Erhöhung der Temperatur
Exotherme Reaktionen. Brennen. Sich selbst ausbreitende Hochtemperatur-Synthese. Verwendung starker Oxidationsmittel. Verwendung von Thermit-Mischungen.
4
Stabilisieren der Temperatur
Verwendung von Metallhydraten. Anwendung der Wärmeisolation aus aufgeschäumten Polymeren.
5
Nachweis der Lage und Lageveränderung eines Objekts
Verwendung von Markierungen auf der Basis von Farbstoffen. Chemische Lumineszenz. Reaktionen unter Freiwerden von Gasen.
6
Steuerung der Lageveränderung eines Objekts
Reaktionen unter Freiwerden von Gasen. Brennen. Explosion. Verwendung oberflächenaktiver Stoffe. Elektrolyse.
7
Steuerung der Bewegung von Flüssigkeiten und Gasen
Verwendung von Diaphragmen. Transportreaktionen. Reaktionen unter Freiwerden von Gasen. Explosion. Verwendung von Hydriden.
8
Steuerung der Ströme von Aerosolen und Suspensionen
Zerstäuben von Stoffen, die chemisch mit Teilchen von Aerosolen interagieren. Koagulationsmittel.
9
Mischen von Gemischen
Eigenschaft, Chemischer Effekt, Erscheinung, Reaktionstypen von Stoffen
Gemische aus chemisch nicht miteinander reagierenden Stoffen. Synergetischer Effekt. Auflösen. Transportreaktionen. Oxidations-Desoxidations- Reaktionen. Chemisches Verbinden von Gasen. Verwendung von Hydraten, Hydriden. Verwendung von Komplexbildnern.
10 Trennung eines Stoffs
Elektrolyse. Transportreaktionen. Desoxidations- (Reduktions-)-Reaktionen. Freisetzen chemisch verbundener Gase. Verschieben des chemischen Gleichgewichts. Ausfällen von Hydriden und Adsorbern. Verwendung von Komplexbildnern. Verwendung von Diaphragmen. Überführen einer der Komponenten in einen anderen Zustand (darunter auch Phasenzustände)
11 Stabilisieren der Lage eines Objekts
Reaktionen der Polymerisation (Verwendung von Klebern, flüssigen Glases, selbsthärtenden Kunststoffen). Verwendung von Helium. Verwendung oberflächenaktiver Stoffe. Auflösen von Bindungen.
Anlage 9 A-Katalog Chemische Effekte
12 Krafteinwirkung. Regulieren der Kräfte. Erzeugen von hohem und niedrigem Druck
375
Explosion. Aufspalten von Gashydraten, Hydriden. Quellen von Metallen unter Aufnahme von Wasserstoff. Reaktionen unter Freiwerden von Gasen. Polymerisations-Reaktionen.
13 Veränderung der Reibung
Reduktion eines Metalls aus einer Verbindung. Elektrolyse (unter Freiwerden von Gasen). Verwendung oberflächenaktiver Stoffe und polymerer Beschichtungen. Hydrieren.
14 Zerstören eines Objekts
Auflösen. Oxidations-Desoxidations-Reaktionen. Brennen. Explosion. Photo- und elektrochemische Reaktionen. Transportreaktionen. Zerlegen eines Stoffs in seine Komponenten. Hydrieren. Verschieben des chemischen Gleichgewichts in Gemischen.
15 Akkumulation mechanischer, Wärme- und elektrischer Energie
Exo- und endotherme Reaktionen. Auflösen. Zerlegen eines Stoffs in seine Komponenten (für die Lagerung). Phasenübergänge. elektrochemische Reaktionen. Chemo-mechanischer Effekt.
16 Energieübertragung
Exo- und endotherme Reaktionen. Auflösen. Chemische Lumineszenz. Transportreaktionen. Hydride. Elektrochemische Reaktionen. Umwandlung von Energie aus einer Form in eine andere, die für die Übertragung besser geeignet ist.
17 Herstellen einer Wechselwirkung zwischen beweglichen und unbeweglichen Objekten
Mischen. Transportreaktionen. Verschieben des chemischen Gleichgewichts. Hydrieren. Selbstgruppierung von Molekülen. Chemolumineszenz. Elektrolyse. Sich selbst ausbreitende Hochtemperatur-Synthese.
18 Messen der Größe eines Objekts
Anhand der Geschwindigkeit und der Zeit der Wechselwirkung mit der Umgebung.
19 Veränderung der Größe und Form eines Objekts
Transportreaktionen. Verwendung von Hydriden, Hydraten. Auflösen (u.a. auch in komprimierten Gasen). Explosion. Oxidationsreaktionen. Brennen. Überführen in chemisch gebundene Form. Elektrolyse. Verwendung von elastischen und plastischen Stoffen.
20 Kontrolle des Zustands und der Eigenschaften von Oberflächen
Radikal-Rekombinationslumineszenz. Verwendung hydrophiler und hydrophober Stoffe. Oxidations- Desoxidationsreaktionen. Verwendung von Photo- Elektro- und ThermoChromen.
21 Veränderung der Oberflächeneigenschaften
Transportreaktionen. Verwendung von Hydriden, Hydraten. Anwendung von Photo-Chromen. Verwendung oberflächenaktiver Stoffe. Selbstgruppierung von Molekülen. Elektrolyse. Ätzen. Austauschreaktionen.. Verwendung von Lacken.
376
Anlage 9 A-Katalog Chemische Effekte
22 Kontrolle des Zustands u. der Eigenschaften im Raum
Reaktion unter Verwendung farblich reagierender Stoffe oder von Indikatorstoffen. Chemische Reaktionen unter Lichtmessung. Bildung von Helium.
23 Veränderung der räumlichen Eigenschaften eines Objekts (Dichte Konzentration)
Chemische Reaktionen, die zur Veränderung der Zusammensetzung des Stoffes führen, aus dem ein Objekt besteht (Oxidationsmittel, Reduktionsreaktionen, Austauschreaktionen). Transportreaktionen. Überführen in eine chemisch gebundene Form. Hydrieren. Auflösen. Verdünnen einer Lösung. Brennen. Verwendung von Helium.
24 Herstellen der vorgegebenen Struktur. Stabilisieren der Struktur eines Objekts
Elektrochemische Reaktionen. Transportreaktionen. Gashydrate. Hydride. Selbstgruppierung von Molekülen. Komplexone.
25 Nachweis elektrischer Felder
Elektrolyse. Elektrochemische (u.a. auch elektrochrome) Reaktionen
26 Nachweis elektromagnetischer Strahlung
Photo- Thermo- radiochemische Reaktionen (u.a. auch Photo-, Thermo-, radiochrome Reaktionen).
27 Generieren elektromagnetischer Strahlung
Verbrennungsreaktionen. Chemische Lumineszenz. Chemische Reaktionen in Gasen - im aktiven Bereich von Lasern. Lumineszenz. Biolumineszenz.
28 Steuerung elektromagnetischer Felder
Auflösen unter Bildung von Elektrolyten. Reduktion von Metallen aus Oxiden und Salzen. Elektrolyse.
29 Steuerung von Lichtströmen. Modulieren des Lichts
Photochrome Reaktionen. Elektrochemische Reaktionen. Reaktionen der reversiblen Elektrosedimentation. Periodische Reaktionen. Verbrennungsreaktionen.
30 Auslösen und Intensivieren chemischer Umwandlungen
Katalyse. Verwendung stärkerer Oxidationsmittel, Desoxidationsmittel. Anregen von Molekülen. Teilen der Reaktionsprodukte. Verwendung magnetisierten Wassers.
31 Analyse der Zusammensetzung eines Körpers
Oxidations- Desoxidationsreaktionen. Verwendung von Indikatorstoffen.
32 Dehydratisieren
Überführen in einen hydratisierten Zustand. Hydrieren. Verwendung von Molekularmembranen.
33 Veränderung des Phasenzustands
Aufspalten. Chemisches Verbinden von Gasen. Absondern (Ausfällen) aus Lösungen. Reaktionen unter Freiwerden von Gasen. Verwendung von Helium. Verbrennen Auflösen
34 Verzögerung und Verhinderung chemischer Umwandlungen
Hemmstoffe, Verwendung inerter Gase. Verwendung von Protektor-Stoffen. Veränderung von Oberflächeneigenschaften. (s. Pkt. Veränderung der Oberflächeneigenschaften)
377
Anlage 10 A-KATALOG Geometrische Effekte Nr.
Geforderte Wirkung, Eigenschaft
Geometrischer Effekt
Verringerung oder Vergrößerung des Umfangs eines Körpers
Kompakte Verpackung von Elementen. Stauchen. Einschaliger Hyperboloid.
Verringerung oder Vergrößerung der Fläche oder Länge eines Körpers bei gleicher Masse
Mehrstöckige Bauweise. Stauchen. Verwendung von geometrischen Figuren mit veränderlichen Schnitten. Möbius-Band. Benachbarte Flächen benutzen.
3
Umwandlung der einen Bewegungsart in eine andere
Releau-Dreieck. Konusförmige Ramme. Kurbel-PleuelAntrieb.
4
Konzentration des Flusses von Energie, Teilchen
Paraboloide, Ellipsen, Zykloide.
1
2
5
Intensivieren eines Prozesses
6
Verringerung von Stoff- und Energieverlusten
Stauchen. Veränderungen der Schnittfläche der Arbeitsoberfläche. Möbius-Band.
7
Steigern der Präzision bei der Bearbeitung
Spezielle Wahl der Form oder Bahn einer Bewegung des bearbeitenden Instruments. Bürsten.
8
Erhöhung der Steuerbarkeit
9
Senken der Steuerbarkeit
10 Erhöhung der Lebensdauer, Zuverlässigkeit
11 Senken des Aufwands
Übergang von einer linearen Bearbeitung zu einer Bearbeitung auf der gesamten Oberfläche. Möbius-Band. Exzentrizität. Stauchen. Schrauben. Bürsten.
Bürsten. Kugeln. Hyperboloide. Spiralen. Dreiecke. Verwendung formveränderlicher Objekte. Übergang von einer linearen Bewegung zu einer Drehbewegung. Nicht axial verlaufender Schraubmechanismus. Exzentrizität. Ersatz von runden Objekten durch Vielecke. Kugeln. Möbius-Band. Veränderung der Kontaktfläche. Spezielle Wahl der Form. Prinzip der Analogie. Winkelgetreue Abbildung. Hyperboloid. Verwendung einer Kombination einfacher geometrischer Formen.
378
BEISPIELVERZEICHNIS Beispiel
Seite
Beispiel 1. Übergang 1: In 3000 Jahren von der Gänsefeder – zum Federhalter.
007
Aus dem Beispiel 1.
085
Beispiel 2. Übergang 2: 50 Jahre nach dem Federhalter – zum Kugelschreiber.
009
Beispiel 3. Übergang 3: In 25 Jahren vom Kugelschreiber – zum Faserschreiber.
010
Extra-Beispiel. Die Ära der elektronischen Schreibgeräte.
011
Beispiel 4 (Aufgabe). „Heckstarter“ – Flugzeug mit vertikalem Start und Landung.
055
Aus dem Beispiel 4.
086
Beispiel 4 (Ende).
101
Beispiel 5 (Aufgabe). Haus am Fluss.
056
Beispiel 6 (Aufgabe). Weinstock.
056
Beispiel 4 (Lösung). „Heckstarter“ – Flugzeug mit vertikalem Start und Landung.
057
Beispiel 5 (Lösung). Haus am Fluss.
057
Beispiel 6 (Lösung). Weinstock.
058
Beispiel 7. Hebekran für Autos auf der Ladefläche von LKWs.
058
Beispiel 8. Röhre für den Abtransport von Bauschutt.
059
Beispiel 9. Kinderüberraschung (Ü-Eier).
059
Beispiel 10. Wie schützt man Palmen in Fußgängerzonen vor Hitze.
060
Aus dem Beispiel 10.
086
Beispiel 11. Wie lässt sich die Zuführung von Gas in Bergwerksstollen gewährleisten.
061
Beispiel 12. Wie werden Schokoladenfläschchen mit Likör hergestellt.
062
Aus dem Beispiel 12.
086
Beispiel 13. Schießen „auf fliegende Teller“ (Tontaubenschießen).
074
Beispiel 14. Pfeiler.
077
Aus dem Beispiel 14.
087
Beispiel 15. Navigationssysteme für Automobile.
092
Beispiel 16. Erfindung ... des Interesses.
092
Beispiel 17. Auf dem Weg zur DVD.
092
Beispiel 18. Systeme mit mehreren Prozessoren.
093
Antworten und Lösungen
379
Beispiel 19. Was haben das Kino, die elektrische Lampe und das Display gemein?
093
Beispiel 20. Korridore für Flugzeuge und Satelliten.
094
Beispiel 21. Sonnenbrillen.
094
Beispiel 22. Kraftwerk im Ofenrohr.
094
Beispiel 23. Wie kann man Zugluft in Gebäuden visualisieren.
095
Beispiel 24. Kokospalmen.
097
Beispiel 25. Beleuchtung für den „Lunochod“.
097
Beispiel 26. Wasser im Wasser.
097
Beispiel 27. Trainingsstationen im Fitnesscenter (Anfang).
102
Beispiel 28. Einschlagen von Pfeilern mit Vibrationsschlag (Anfang).
102
Beispiel 29. Leiten von Satellitengruppen auf genaue Orbits (Anfang).
103
Beispiel 30. Schreibtafeln (Anfang).
103
Beispiel 31. Kuppel des Reichstags (Anfang).
103
Beispiel 32. Trennzaun (Anfang).
106
Beispiel 33. Reaktionsfähigkeit von Kraftfahrern (Anfang).
106
Beispiel 34. Pfeiler (Anfang des letzten Beispiels zum Pfeiler).
106
Beispiel 35. Reparatur von Rohrleitungen (Anfang).
107
Beispiel 36. Schreibtafel (Verschärfung der Problemsituation nach Bsp. 30).
107
Beispiel 37. Kuppel des Reichstags (Verschärfung der Problemsituation nach Bsp. 31).
107
Beispiel 38. Vase im Museum.
108
Beispiel 39. Kiel einer Segelyacht.
109
Beispiel 40. Stromabnehmer von Straßenbahnen.
110
Beispiel 41. Geländegängiger LKW.
112
Beispiel 42. Winterschuhe.
113
Beispiel 43. Arbeits- oder Esstisch für das Bett.
114
Beispiel 44. Treppen einer Gedenkstätte.
115
Beispiel 45. Flaschen mit gefährlichen Stoffen.
115
Beispiel 27. Trainingsstation im Fitnesscenter (Abschluss).
118
Beispiel 28. Einschlagen von Pfeilern mit Vibrationsschlag (Abschluss).
119
Beispiel 29. Leiten von Satellitengruppen auf genaue Orbits (Abschluss).
120
Beispiel 30. Schreibtafel (Abschluss).
120
Beispiel 31 und 37. Kuppel des Reichstags (Abschluss).
122
Beispiel 32. Trennzaun (Abschluss).
123
380
Antworten und Lösungen
Beispiel 33. Reaktion des Kraftfahrers (Abschluss).
124
Beispiel 34. Pfeiler (Abschluss des Beispiels).
124
Beispiel 35. Reparatur einer Rohrleitung (Abschluss).
126
Beispiel 46. Schreibtafel (endgültiger Abschluss!).
126
Beispiel 47. Schiff auf Unterwasserflügeln.
127
Beispiel 48. Sonniges Haus.
130
Beispiel 49. Wand.
132
Beispiel 50. Kühlturm.
133
Beispiel 51. Hantelscheiben.
143
Beispiel 52. Steckverbindung von Leiterplatten.
144
Beispiel 53. Kupferleiter auf Mikrochips.
144
Beispiel 54. Granulat für die Beseitigung von Öl.
145
Beispiel 55. „Gepanzerte“ Flasche.
146
Beispiel 56. Rasierklinge Gilette.
147
Beispiel 57. Stadion „France“.
147
Beispiel 58. Betonkonstruktionen.
148
Beispiel 59. Weinstock (Lösung mit Hilfe der Integration inverser technischer Widersprüche).
152
Beispiel 60. Erhitzung von Siliziumplatten.
153
Beispiel 61. Löschen von Bränden an Erdöl- und Gasbohrlöchern.
156
Beispiel 62. Jeans als ... Dünger.
157
Beispiel 63. Das Neue ist oft gut vergessenes Altes!
158
Beispiel 64. Rettung in Lawinen.
158
Beispiel 65. Sortieren von Metallschrott.
160
Beispiel 66. Die Firma Microsoft patentiert ... eine Puppe!
161
Beispiel 67. Schutz von Fahrzeugen vor unberechtigtem Zugriff.
162
Beispiel 68. Windkraftwerke.
164
Beispiel 69. Rauschnetz.
166
Beispiel 70. Raclette? Warum auch nicht?!
168
Beispiel 71. „Deckel“ über einem Schornstein.
171
Beispiel 72. Erhitzung von Siliziumplatten (Lösung auf der Grundlage der Integration physikalischer Widersprüche).
176
Beispiel 73. „Zwei Fliegen mit einer Klappe schlagen“.
177
Beispiel 74. Safe mit doppeltem Boden am Strand.
178
Beispiel 75. Fundamentale Transformationen im Raum.
179
Antworten und Lösungen Beispiel 76. Fundamentale Transformationen in der Zeit.
381 180
Beispiel 77. Fundamentale Transformationen in der Struktur.
181
Beispiel 78. Fundamentale Transformationen im Stoff.
182
Beispiel 79. Training für das Wasserspringen.
183
Beispiel 80. Für jene, die Rasen lieben, ihn aber nicht gerne mähen.
184
Beispiel 81. Wer gewinnt – Hubschrauber oder Flugzeug?
185
Beispiel 82. Prothesen für Gefäße.
188
Beispiel 83. Natürliches Licht im Sitzungssaal des Parlaments.
189
Beispiel 84. Eine Gasturbine der Firma SIEMENS.
190
Beispiel 84. Eine Gasturbine der Firma SIEMENS (Abschluss).
271
Beispiel 85. Flugzeug des XXI. Jahrhunderts?
192
Beispiel 86. Sind alle Nägel zylindrisch?
200
Beispiel 87. Angenehmer ... Straßenlärm.
200
Beispiel 88. Kontrolle des Verschleißes von Motoren.
201
Beispiel 89. Blüht eine Rose auf, die noch als Knospe geschnitten wurde?
201
Beispiel 90. Kann man ein neues „Wirkungsprinzip“ des Fußballs erfinden?
202
Beispiel 91. Starke Lautsprecherbox ... auf der Handfläche.
203
Beispiel 92. Ein ideales Wischtuch.
203
Beispiel 93. Märchenhafte Realität.
205
Beispiel 94. Unbeweglicher Wetterhahn!
206
Beispiel 95. Perpetuum Mobile für die Menschheit?!
208
Beispiel 96. Dattelpalme.
232
Beispiel 97. Elektronik und Computer.
235
Beispiel 98. Mikroprozessor und RAM.
236
Beispiel 99. Distanzkontrolle.
237
Beispiel 100. Elektromotor-Rad.
237
Beispiel 101. Messerbesteck.
238
Beispiel 102. Flugzeugflügel.
238
Beispiel 103. Zum Pfahl-Hammer.
242
Beispiel 104. Linie des Zerteilens eines chirurgischen Instruments.
242
Beispiel 105. Linie des Zerteilens des Schneideinstruments des Rasenmähers.
242
Beispiel 106. Verringerung der Gleitreibung in Drehpaaren „Welle – Stütze“.
243
Beispiel 107. Erhöhung der Lebensdauer und Zuverlässigkeit von Gleitkontakten.
243
382
Antworten und Lösungen
Beispiel 108. Verwendung poröser Materialien in Gleitlagern.
243
Beispiel 109. Autoreifen.
243
Beispiel 110. Das Rad eines Fahrrads (Anfang).
244
Beispiel 110. Das Rad eines Fahrrads (Ende).
245
Beispiel 111. Gleitlager.
245
Beispiel 112. Saiten-Transportsystems von A. Yunitzki.
246
Beispiel 113. Härtung beim Eintauchen von großen Werkstücken in eine Ölwanne (Anfang).
258
Beispiel 113. Härtung (Fortsetzung 1).
259
Beispiel 113. Härtung (Fortsetzung 2).
259
Beispiel 113. Härtung (Fortsetzung 3).
260
Beispiel 113. Härtung (Fortsetzung 4).
262
Beispiel 113. Härtung (Fortsetzung 5).
262
Beispiel 113. Härtung (Fortsetzung 6).
262
Beispiel 113. Härtung (Fortsetzung 7).
263
Beispiel 113. Härtung (Fortsetzung 8).
264
Beispiel 113. Härtung (Fortsetzung 9).
264
Beispiel 113. Härtung (Fortsetzung 10).
265
Beispiel 114. Magnetfilter.
268
Beispiel 115. Entwicklung des Magnetfilters.
269
Beispiel 116. Magnetventil.
269
Beispiel 117. Ziehen eines Drahts ohne Ziehdüse.
270
Beispiel 118. Schleifverfahren.
270
Beispiel 119. Verfahren zum Zerstäuben von Schmelzgut
270
Beispiel 120. Verfahren zum Intensivieren eines Prozesses.
270
Beispiel 121. Rohrleitung für Erdöl.
275
Beispiel 122. DZK-Modellierung.
282
Beispiel 123. Ring über dem Erdball.
282
Beispiel 124. Kosmische Transport- und Industriesysteme von Yunitzki.
282
Beispiel 125. Anpassbare Polierscheibe.
286
Beispiel 126. Halten einer dünnen Glasplatte im Vakuum.
295
Beispiel 127. Orthopädische Erfindung FITBONE.
303
Beispiel 128. Ausflugs-U-Boot.
335
Beispiel 129. Fliegende Zisterne.
337
Antworten und Lösungen
383
ANTWORTEN UND LÖSUNGEN Praktikum für die Abschnitte 3 – 5 1. Das Porträt von Lauten. Praktisch wurde die Verbindung eines physikalischen (Reflektion von Lauten) und eines geometrischen Effektes genutzt: eine Höhle hat die Form einer regelmäßigen Ellipse (oder einer Honigmelone, räumlich betrachtet), deshalb werden Geräusche von Händeklatschen oder Schreie in einem der Zentren der Ellipse von den Wänden und der Decke mehrfach reflektiert und bleiben lange zu hören. Dieses so entstandene zehnfache Echo erinnert an das Trampeln einer ganzen Herde. Leise Geräusche kehren als „Antwort der Ahnen“ zurück, die an die Wände gezeichnet sind. 2. Der Leuchtturm von Alexandria. Der Baumeister versteckte seinen Namen unter einer dicken Schicht von Stuck, die natürlich mit der Zeit abbröckelte, (Ressource der Zeit, des Materials und Raums – s. Navigator 34 Matrjoschka). 3. Das Rätsel der Pyramiden. Es wurde der physikalische Effekt (der „Horizontalität“ von Flüssigkeiten in relativ kleinen Hohlräumen wie Rinnen, Röhren und Gräben) und Effekte der geometrischen Ähnlichkeit verwendet: a) Nehmen wir an, dass mit dem Durchmesser des Fundaments der künftigen Pyramide ein Graben ausgehoben wurde, der mit Wasser gefüllt wurde. Anhand des Neigungsniveaus der Wasseroberfläche im Verhältnis zu den Rändern des Grabens konnte man Schlüsse über die Horizontalität des Bauplatzes ziehen. b) Diese Antwort ist allgemein bekannt. Die Höhe einer Pyramide wurde auf der Grundlage des Ähnlichkeitsprinzips im Vergleich zur Höhe eines vertikal stehenden Markierungsstabs in dem Moment ermittelt, als die Höhe des Stabs mit der Länge seines Schattens übereinstimmte. Zu diesem Zeitpunkt war die Länge des Schattens der Pyramide gleich ihrer Höhe. c) Es könnte die Eigenschaft der geraden Linie verwendet worden sein. Von zwei Seiten aus konnte man je Seite zwei Stäbe so aufstellen, dass ein dritter Stab in der Mitte der Fläche installiert, zu einem dritten Punkt wird, der auf zwei senkrecht zueinander angeordneten Linien liegt, auf denen sich je zwei Stäbe und der Mittelstab befinden. Beim Wachstum der Pyramide brauchte nur die Lage des Mittelstabs kontrolliert werden, der sich zusammen mit dem oberen Niveau des Baus anhob. d) Es gibt zwei Hypothesen, die auf ein und demselben Effekt basieren: ein Sandhaufen, der streng von der Spitze aus aufgeschüttet wird, wie ein pseudofließender fester Körper, hat die Form eines regelmäßigen Konus, dessen Neigungswinkel der Seiten ca. 52º beträgt. Jetzt könnte man zusammen mit dem mittleren Stab als Symmetriekontrolle der Pyramide einen ausreichend hohen Sandkonus aufschütten, und so beim Bau der Pyramide gleichzeitig die Symmetrie und den Neigungswinkel der Kanten kontrollieren. Nach der zweiten Hypothese wurden Pyramiden gebaut, indem im Zentrum der Baustelle ein Sandkonus bis zur äußeren Spitze der Pyramide aufgeschüttet wurde. Wenn der Konus auf ein gigantisches Maß angewachsen war wurde er mit Blöcken umbaut (die wir auch an den Pyramiden von außen sehen), und im Konus wurden befestigte Räumlichkeiten und Gänge aus Blöcken gebaut.
384
Antworten und Lösungen
4. Der Botschafter Ismenius. Der Botschafter ließ absichtlich einen Ring vom Finger auf den Boden fallen, und beugte sich herunter, um ihn aufzunehmen. Der Widerspruch wurde in der Struktur gelöst (Handlungen): äußerlich wurden die selben Handlungen vollzogen, inhaltlich jedoch nicht. 5. Die Krönung der Imperatoren. Karl der Große griff die Krone aus der Hand des Papstes und setzte sie sich selbst auf den Kopf. Dasselbe tat auch Napoleon. Der Widerspruch wurde im Raum und in der Zeit gelöst – einen Teil der Handlung (die Krönung) führte die eine Person aus, den anderen Teil hingegen eine andere. 6. Der Turm von Pisa. Die Antwort auf die zweite Frage (s. Abbildung): auf der Nordseite wurden am Fundament des Turms 12 Löcher gebohrt, das Fundament senkte sich, und die Schiefe der 7.Schicht des Turms verringerte sich um 40 cm und erreichte, wie man jetzt annimmt die ungefährliche Größe von 4,07 m. 4,07
Praktikum für die Abschnitte 6 – 9 7. Eiswürfel. Funktional ideales Modellieren: sie haben die Form von umgedrehten Kegelstümpfen mit einer geringen Neigung der Kanten, aus dem das Eis bei Ausdehnung sich selbst „herausdrückt“. Verstärkung: der Boden der Form wird flexibel gemacht und auch mit Wasser gefüllt, das beim Gefrieren den Eiswürfel nach oben drückt. Navigatoren und Standards sind mit dem Phasenübergang verbunden. 8. Aggressive Flüssigkeit. Ideales Endresultat: eine aggressive Flüssigkeit wird in einen Behälter, bestehend aus dem zu untersuchenden Material, gefüllt (Verfahren 11 Entgegengesetzt). 9. Kerzenabdeckung. Die Abdeckung wird an einem Drahthalter befestigt, der am unteren Teil die Form einer Röhre hat und direkt auf den oberen Teil der Kerze aufgesetzt wird. In dem Maße, wie die Kerze herunterbrennt, senkt sich ein Teil der Kerze und der Halter mit der Abdeckung nach unten. Navigatoren 5, 6, 21, 29. 10. Sterne des Kremls. Die Drehachse des Sterns ist so gelagert, dass der Stern die Funktion eines Wetterhahns hat. Je stärker der Wind ist, desto besser stellt sich der Stern in den Wind (Navigatoren 21 Schaden in Nutzen umwandeln und 29 Selbstbedienung). 11. Teekessel. Im unteren vorderen Teil des Kessels wird ein Behälter für Teeblätter eingebaut (s. Abbildung). Lösung des Widerspruchs im Raum und in der Struktur. 12. Spielzeug. Aufblasbares, bewegliches Spielzeug. Lösung des Widerspruchs in der Zeit, im Raum und in der Struktur.
Antworten und Lösungen
385
13. Übergang zum Strand. Damit der Sand nicht von den Schuhen auf die Promenade getragen wird, verwendet man Stroh und getrocknetes Gras. Navigatoren 18 Vermittler, 28 Vorher untergelegtes Kissen und 31 Verwendung poröser Materialien. 14. Training für Wasserspringer. Antwort im Abschnitt 12.3, Bsp. 79. 15. U-Bahnzüge. Der Zug enthält weniger Wagen – Lösung des Widerspruchs in der Struktur und im Raum. 16. Guy de Maupassant und der Turm von Gustave Eiffel. Navigatoren 34 Matrjoschka, hauptsächlich aber – Lösung des Widerspruchs in der Struktur und im Raum: um nicht das Ganze zu sehen, kann man sich in einem Teil des Ganzen verbergen. 17. Bewegungsrichtung einer Flüssigkeit im Rohr. Lösung des Widerspruchs im Stoff und in der Zeit: eine Stelle am Rohr in Nähe der Beschädigung erhitzen und daneben die Temperatur des Rohrs messen. Wenn die Temperatur steigt, so fließt das Wasser aus Richtung der Stelle des Erhitzens in Richtung Messstelle. Wenn sich die Temperatur nicht verändert, fließt das Wasser in die entgegengesetzte Richtung. 18. Regale im Schuhgeschäft. Einzelne Kartons werden herausgestellt und spielen die Rolle von Regalen. Navigatoren 5, 12, 13, 19, 24. Praktikum für die Abschnitte 10 – 13 19. Werbeplakat (1). Die Firma 3M, USA setzte der Klebeschicht gläserne Mikrokügelchen zu. Bis zum Andrücken lässt sich das Plakat leicht verschieben. Lösung des Widerspruchs im Material und in der Struktur. Es wurde der komplexe Standard für die Einführung von Zusätzen und Prinzipien der Integration alternativer Systeme verwendet. 20. Werbeplakat (2). Das Plakat wird aus einem perforierten Material hergestellt – von innen ist alles gut zu sehen, was sich außen befinden, wenn sich die Augen recht nahe an den Löchern der Perforierungen befinden. Lösung des Widerspruchs in der Struktur und im Material. In Gegenden mit heißem Klima entsteht ein Nebeneffekt – das Plakat schützt vor Sonne. 21. Beliebige Pfanne - teflonbeschichtet! Der Navigator 18 Vermittler: die Firma Dupont (USA) stellt teflonbeschichtete Häute her, die in die Gefäße gelegt und mehrfach verwendet werden können. 22. Türklingel. Navigatoren 4, 5, 10, 12: es wird eine Miniatur-Geräuschquelle mit einem Funkempfänger verwendet, die in die Tasche gesteckt werden kann. Von der Türquelle aus wird ein Funksignal abgegeben, welches ein „Taschenklingeln“ erzeugt. Die nächste Aufgabe: wie kann man erreichen, dass nicht in allen Nachbarwohnungen diese „Taschenklingeln“ läuten, wenn nur an einer bestimmten Wohnungstür geklingelt wird? 23. Abnutzung von Reifen. Die Firma Michelin (Frankreich) stellt farbige Autoreifen her, die durchaus in Mode kommen könnten. Analog dazu und auf der Basis einiger technischer Effekte, z.B. dem chemischen Effekt 22, kann man Reifen herstellen, anhand derer man durch die Abtragung der oberen Farbschicht bis zum Erscheinen einer andersfarbigen Signalschicht die Abnutzung bewerten kann.
386
Antworten und Lösungen
24. Neutralisierung von Abgasen eines kalten Motors. Die Firma SAAB (Schweden) hat ein experimentelles Auto hergestellt, in dem sich für eine bestimmte Zeit nach dem Anlassen des Motors die Abgase in einem Behälter im Kofferraum sammeln. Nach einer bestimmten Zeit der Erwärmung werden die Abgase an den Katalysator abgegeben. Chemischer Effekt 10 Zerteilen des Stoffs zusammen mit den Navigatoren 5 Ausgliedern und 39 Vorherige Wirkung. 25. Wärmende Kleidung. Die Firma Gateway Technologies (USA) hat einen Stoff entwickelt, der Mikrokapseln mit Polyethylenglykol enthält. Bei Gefrieren gibt der Stoff einen Teil der Wärme ab, die darin gespeichert wurde, als er sich vorher in einem warmen Raum befunden hat. Komplexer Standard zur Einführung von Zusätzen und technische Effekte, die mit Phasenübergängen verbunden sind, z.B. physikalischer Effekt 4 Stabilisation der Temperatur. 26. Mikropinzette. Verwendung von Stoffen mit Speicher der Form nach den physikalischen Effekten 6 und 12. 27. Wie leben Adler und Greifvögel? Physikalischer Effekt 17 und Navigator 18 Vermittler: heute lässt sich das recht einfach und effektiv machen – Installieren von Miniaturkameras für die Beobachtung mit einer Kernenergiequelle. 28. Weiße Leuchtdiode. Forscher des Instituts für angewandte Festkörperphysik in Freiburg (Deutschland) haben einige Mikrogramm eines lumineszierenden Farbstoffs in den durchsichtigen linsenförmigen Körper einer blauen Lichtdiode eingebracht. Der Farbstoff schluckt die blaue Strahlung des Galliumnitrids, und die Diode leuchtete weiß. Chemischer Effekt 27 u.a. 29. Spiegel für ein Teleskop. Langsames Rotieren einer 45-tonnigen geschmolzenen Masse in einer speziellen Form führt zur Entstehung eines parabolischen Rotationskörpers. So wurden im Unternehmen Schott in Deutschland mehrere geometrische Effekte verwendet, wie z.B. der Effekt 8 Erhöhung der Steuerbarkeit, und auch der physikalische Effekt 6 Steuerung der Bewegung von Objekten. 30. Einfrieren von Beeren und Obst. Das Einfrieren erfolgt in einem Strom stark gekühlter (pseudo-gefrorener) Luft. Die Produkte frieren, bevor sie mit dem Fließband in Kontakt kommen und frieren demzufolge nicht zusammen. In einer neuen Anlage, die in Sankt Petersburg (Russland) entwickelt wurde, wird der Navigator 33 Schneller Sprung und physikalische Effekte der Gruppe 2 Absenken der Temperatur und der Gruppe 6 Steuerung der Bewegung von Objekten verwendet. 31. Nicht fallende Zahnbürste. S. Beispiel 41 im Abschnitt 9.2 Funktionales Ideales Modellieren. 32. Training von Bergsteigern. Wissenschaftler aus der Universität Potsdam haben eine spezielle Wand entwickelt, die eine sich drehende Scheibe mit Ausbuchtungen für das Abstützen der Hände und Füße hat. Die Drehachse der Scheibe kann auch ihre Position verändern. Navigatoren 7, 10, 19, 20, 22. 33. Superschwungrad. Die Lösung gründet sich auf einem speziellen physikalischen Effekt: Konstruktionen, die in ihrer Statik die Form einer „erkalteten“ dynamischen Oberfläche mit bestimmten Eigenschaften haben, verhalten sich in der Dynamik unter Belastung ähnlich wie elastische Objekte.
Antworten und Lösungen
387
So hat auch die Oberfläche der Stütze eine Krümmung analog zur Linie der größten Spannung eines sich drehenden Springseils. Auf dieser Grundlage wurde ein solches Zentrum von einem Team für den Bau von Superschwungrädern und Antrieben, unter Professor Gulija im Moskauer Luftfahrtinstitut (MAI) entwickelt. 34. Test von Leitungen. In der Firma SIEMENS (Deutschland) wurde ein Stück des Leiters einer Kontaktleitung zu einem Ring von 3 Metern Durchmesser geschlossen und auf einer Scheibe befestigt, die sich durch einen gesteuerten Elektromotorenantrieb dreht. An dieser Anlage werden auch neue Stromabnehmer getestet und Prozesse der Funkenbildung und der elektromagnetischen Strahlung untersucht. Navigatoren 7, 10, 11, 22 zusammen mit den physikalischen Effekten 17, 20 u.a. Praktikum für die Abschnitte 14 – 15 Alle Aufgaben haben den Charakter von Prognosen und hatten zum Zeitpunkt des Erscheinens noch keine Kontrollantworten. Praktikum für die Abschnitte 16 - 17 44. Härtewanne. Schließen Sie die Lösung der drei Aufgaben aus dem Beispiel 113 ab, verwenden Sie dabei die Formulierungen aus dem Beispiel 113 (Fortsetzung 10 am Ende des Abschnitts 16.2). Kontrolllösung: Einsatz einer Schicht aus Kohlendioxid in der Wanne. Die Antworten auf die anderen Fragen Aufgaben 45-48 müssten Sie selbst finden. Praktikum für die Abschnitte 18 – 19 49. Das Unsichtbare „sehen“. Auf den Körper wird eine Kopie eines Bündels von Röntgenstrahlen projiziert, jedoch in Form einer unschädlichen und sichtbaren Lichtstrahlung. Das abgestrahlte Licht wird vor dem Anschalten des Röntgengeräts verwendet. Navigatoren 09 und 10. 50. Das „Unmögliche“ zulassen. Alle Kontrollideen liegen vor, aber sie werden nicht gegeben, um Ihre Suche danach nicht zu beeinflussen. 51. Das „Unerklärliche“ verstehen. Es gibt eine Kontrolllösung, jedoch soll sie nicht verraten werden. Finden Sie die Lösung selbst.
388
SACHVERZEICHNIS
Abstrakte Maschine ................................................................................... 90 Actor ............................................................................................................ 84 A-Katalog .................................................................................................... 154, 354 A-Kompaktstandard .................................................................................. 139, 142, 344 A-Matrize .................................................................................................... 154, 347 A-Navigation, A-Navigator ....................................................................... 52, 53, 54 ARIZ - Algorithmus zur Lösung von Aufgaben beim Erfinden ................ 40, 45, 52, 116 Basis-Transformation (Effekt) .................................................................. 51, 138, 197, 370, 374, 377 BS – Brainstorming ..................................................................................... 30 CICO – Methode Cluster In Cluster Out .................................................... 170 CROST (Constructive Resource&Result Oriented Strategy of Thinking&Transforming) - Konstruktive Ressourcen- und Resultatorientierte Strategie für Denken&Transformationen ................................... 315 Diagnostik – (erste) Etappe des Meta-ARIZ, in der die Hauptinhalte des Problems herausgestellt werden ............................................................ 82, 116, 257 DZK – Das Verfahren „Dimension – Zeit – Kosten “ ................................ 281 Effekt - Modell einer Transformation, das konkrete wissenschaftlichtechnische Erscheinungen (Effekte) und Analogien für den Übergang von der Ausgangssituation zur geforderten beinhaltet ....................................... 51, 197 Effektivität .................................................................................................. 218, 219, 266 Entwicklungslinie von Ressourcen ........................................................... 241 Expansion eines Systems ........................................................................... 234 FIM - Funktional-ideales Modell .............................................................. 111 Fundamentale Transformationen ............................................................ 51, 138, 179, 365, 366, 368 Ideale Maschine .......................................................................................... 217 IER – ideales Endresultat : die Vorstellung darüber, welches funktionelle Modell erhalten werden soll und das „idealerweise” nach Beseitigung der Ursachen des Widerspruchs ..................................... 111 Induktor – ein Objekt, das auf ein anderes einwirkt (Rezeptor) in Form von Energie-, Informations- oder Stoffübertragung und/oder Veränderungen einer Funktion des Rezeptors initiiert ................................ 84 Inverser physikalischer Widerspruch ...................................................... 138, 175 Inverser technischer Widerspruch ........................................................... 138, 152 Komplexe Transformationen ................................................................... 51, 138, 142, 343, 344 Kontraktion eines Systems ........................................................................ 234
Sachverzeichnis Lateral Thinking ........................................................................................ 31 MA – Morphological Analysis (Morphologische Analyse) ........................ 31 Maximale Aufgabe - Entwicklung eines Systems mit neuer Funktionsweise (dabei sind bedingt uneingeschränkte Veränderungen und ein uneingeschränkter Ressourcenaufwand zulässig) .................................. 216 Meta-ARIZ (Meta-Algorithmus des Erfindens) - das allgemeinste Schema, welches die Hauptetappen der kreativen Lösung von Problemen darstellt ............................................................................... 70, 83 MFO – Method of Focal Object ................................................................. 30 Mini-ARIZ .................................................................................................. 116 Minimale Aufgabe – es wird sich das Ziel gestellt, Vorbehalte gegenüber einem Objekt durch minimale Veränderungen und minimalem Ressourcenaufwand zu beseitigen ............................................ 216 Minus-Faktor ............................................................................................. 99 MKF – Methode des Modellierens mit kleinen Figürchen ......................... 284 NF – negative Funktion: eine Funktion, welche die Ausführung der nützlichen Hauptfunktion behindert ............................................................ 217 NDNT - Neuro-Dynamical Navigation of Thinking ................................... 334 Niveaus von Erfindungen .......................................................................... 18 NLP (Neurolinguistisches Programmieren) ................................................ 31 OZ – operative Zone: eine Vielzahl von Komponenten, welche den miteinander interagierenden Induktor (einer oder mehrere) und Rezeptor (ein oder mehrere), sowie die operativen Ressourcen umfaßt ...................................................................................... 84 PentaCORE ................................................................................................ 315, 332 PF – positive Funktion: eine Funktion, welche die Ausführung der nützlichen Hauptfunktion unterstützt .......................................................... 217 Phantogramm ............................................................................................. 278 Physikalischer Widerspruch oder PWM (Modell eines physikalischen Widerspruchs) - unvereinbare Anforderungen an physikalische Zustände ................................................................................ 104 PIV – Psychological Inertia Vector ............................................................. 41 Plus-Faktor ................................................................................................. 99 Problem, Problemsituation – eine Aufgabe, die über Komplikationen verfügt: Informationen sind unsicher oder unvollständig, die Lösungsmethode oder die notwendigen Ressourcen sind unbekannt ......................................................................... 68, 69, 257 PTR – physikalisch-technische Ressourcen: zeitliche, räumliche, stoffliche, energetische ................................................................................ 96 Radikal-Widerspruch ................................................................................ 324, 326 Reduktion – (zweite) Etappe des Meta-ARIZ, in der die ursprüngliche Beschreibung eines Problems in Standardformen überführt wird, zu deren grundlegenden Widersprüche, Ressourcen und das IER gehören ................................................................................... 82, 116 Re-Inventing ............................................................................................... 3
389
390
Sachverzeichnis
Ressource – beliebige Objekte, die potentiell für das Erreichen des idealen Endresultats nützlich sein können .................................................. 89 Ressourcenarten ......................................................................................... 96 Rezeptor – ein Objekt, das die Einwirkung des Induktors erfährt und/oder unter dessen Einwirkung sich verändert oder in Funktion tritt .................................................................................... 84
S-Kurve der Evolution des Hauptparameters ........................................ 220, 230 Spezialisierte Transformationen .............................................................. 51, 138, 154, 354 Standard – Modell einer Transformation, das verallgemeinerte Regeln für den Übergang von der Ausgangssituation zur geforderten beinhaltet ............................................................................ 51, 138, 143 Standard-Widerspruch ............................................................................. 324, 326 STR – systemtechnische Ressourcen: systemhafte, Informationsressourcen, funktionelle, strukturelle ...................................................................... 96 Super-Effekt ............................................................................................... 19 SYN – Synectics (Synektik) ........................................................................ 31
Technischer Widerspruch oder TWM (Modell eines technischen Widerspruchs) – unvereinbare Anforderungen an funktionelle Eigenschaften ............................................................................................... 101 Transformation – (dritte) Etappe des Meta-ARIZ, in der anhand des Problemmodells das geeignete Transformationsmodell ausgewählt und eine hypothetische Lösung generiert wird ........................................... 51, 82, 116 TRIZ - Theorie zur Lösung von Aufgaben beim Erfinden ........................ 3, 36, 44 TRIZ-Gesetze – empirische Metamodelle der qualitativen Veränderung von Systemen und Arten von Systemen während ihres Lebenszyklus ...................................................................................... 226
X-Ressource ................................................................................................ 112 Verfahren – Modell einer Transformation, das konkrete Regeln und Analogien für den Übergang von der Ausgangssituation zur geforderten Situation beinhaltet .................................................................. 38, 51 Verifizieren – (vierte) Etappe des Meta-ARIZ , in der die Qualität der hypothetischen Lösungen überprüft wird .............................................. 82, 116, 266 Widerspruch – unvereinbare Eigenschaften und Anforderungen, die in einem Problem vorhanden sind ......................................................... 98
391
LITERATUR 1.
2. 3. 4. 5. 6. 7.
8.
9.
10. 11. 12. 13.
G. Altschuller, R. Schapiro (1956) Über die Psychologie der erfinderischen Kreativität. – Zeitschrift „Fragen der Psychologie“, Moskau, 6’1956 (Russ., nicht übersetzt; Ƚ.Ⱥɥɶɬɲɭɥɥɟɪ, Ɋ.ɒɚɩɢɪɨ / Ɉ ɩɫɢɯɨɥɨɝɢɢ ɢɡɨɛɪɟɬɚɬɟɥɶɫɤɨɝɨ ɬɜɨɪɱɟɫɬɜɚ. – ɀɭɪɧɚɥ ȼɨɩɪɨɫɵ ɩɫɢɯɨɥɨɝɢɢ, Ɇɨɫɤɜɚ, 6’1956) G. Altschuller (1961) Wie lernt man Erfinden. (Russ., nicht übersetzt; Ƚ.Ⱥɥɶɬɲɭɥɥɟɪ / Ʉɚɤ ɧɚɭɱɢɬɶɫɹ ɢɡɨɛɪɟɬɚɬɶ. Ɍɚɦɛɨɜɫɤɨɟ ɤɧɢɠɧɨɟ ɢɡɞɚɬɟɥɶɫɬɜɨ, Ɍɚɦɛɨɜ) G. Altschuller (1973) Algorithmus des Erfindens. (Russ., nicht übersetzt; Ƚ.Ⱥɥɶɬɲɭɥɥɟɪ / Ⱥɥɝɨɪɢɬɦ ɢɡɨɛɪɟɬɟɧɢɹ. Ɇɨɫɤɨɜɫɤɢɣ ɪɚɛɨɱɢɣ, Ɇɨɫɤɜɚ) G. Altschuller (1984/1986/1998) Erfinden – Wege zur Lösung technischer Probleme. Hrsg. Prof. M.Möhrle (1998), BTU Cottbus, Cottbus G. Altschuller, A. Seljuzki (1983) Flügel für Ikarus. Über die moderne Technik des Erfindens. Urania, Leipzig/Jena/Berlin. G. Altschuller (1986) Eine Idee finden. (Russ., nicht übersetzt; Ƚ.Ⱥɥɶɬɲɭɥɥɟɪ / ɇɚɣɬɢ ɢɞɟɸ. ɇɚɭɤɚ, ɇɨɜɨɫɢɛɢɪɫɤ) G. Altschuller, I. Vjortkin (1994) Wie wird man ein Genie: Lebensstrategie einer kreativen Persönlichkeit (Russ., nicht übersetzt; Ƚ.Ⱥɥɶɬɲɭɥɥɟɪ, ɂ.ȼɟɪɬɤɢɧ / Ʉɚɤ ɫɬɚɬɶ ɝɟɧɢɟɦ: ɠɢɡɧɟɧɧɚɹ ɫɬɪɚɬɟɝɢɹ ɬɜɨɪɱɟɫɤɨɣ ɥɢɱɧɨɫɬɢ. Ȼɟɥɚɪɭɫɶ, Ɇɢɧɫɤ) H. Linde, B. Hill (1993) Erfolgreich erfinden. Widerspruchsorientierte Innovationsstrategie für Entwickler und Konstrukteure. Hoppenstedt Technik Tabellen Verlag, Darmstadt M. Orloff (1996–1998) Ein Instrument für innovatives Konstruieren: CROST (Constructive Resource-Oriented Strategy of Thinking). In: Konstruktionsmanagement. WEKA Fachverlag, Augsburg M. Orloff (2000) Meta-Algorithmus des Erfindens. TRIZ-Kurs für Profis (Buch und CD-Buch). Lege Artis, Berlin M. Orloff (2000) Goldene Verfahren der TRIZ – nicht nur für professionelle Erfinder. Lege Artis, Berlin M. Orloff (2003) Inventive Thinking through TRIZ: A Practical Guide (Engl.). Springer, New York D. Zobel (2001) Erfinden mit System: Theorie und Praxis erfinderischer Prozesse. Expert-Verlag, Renningen-Malmsheim
ZUSÄTZLICHE INFORMATIONSQUELLEN www.invention-machine.com www.ideationtriz.com www.triz-journal.com
ADRESSE DES AUTORS www.modern-triz-academy.com