zurück zum Artikel

Die Wahrheit über Nanotechnologie

Niels Boeing

Die Nanowissenschaft lässt sich bis zum Beginn des vorherigen Jahrhunderts zurückverfolgen, echte Nano-Produkte bilden schon heute einen Milliarden-Markt. Doch selbst ernst zu nehmende Forscher glauben, dass dies erst der Anfang ist

Wenn es ein Barometer für die Stimmung in unserer technikgetriebenen Zeit gibt, ist es die amerikanische Technologiebörse Nasdaq. Am 3. Dezember vergangenen Jahres stieg dort der Kurs einer unter dem Kürzel NANO notierten Aktie zeitweilig um zehn Prozent. Statt wie sonst üblich 300 000 wechselten mehr als 1,6 Millionen Anteile des kalifornischen Unternehmens Nanometrics den Besitzer.

Analysten vermuteten hinterher, dass die Anleger sich schlicht vertan hatten: Vor Börseneröffnung hatte ein anderes Unternehmen, Nanogen, mitgeteilt, ein wichtiges neues Patent erhalten zu haben. Die an jenem Dezembertag ebenfalls heiß begehrte Nanometrics dagegen hat, wie ein Sprecher einräumt, trotz des eindeutigen Kürzels und Namens mit Nanotechnologie allenfalls am Rande zu tun. Doch getreu dem Motto: "Wo nano draufsteht, muss nano drin sein", hatten viele Leute auch gleich Anteile der Kalifornier gekauft.

Kein Zweifel: Nanotechnologie ist schwer in Mode. Noch 1995 war der Begriff Nanotechnologie ganze 200 Mal in der wichtigen internationalen Wirtschaftspresse aufgetaucht. Vorletztes Jahr hingegen schon 4000 Mal -- eine Steigerung auf das Zwanzigfache. Das deutet darauf hin, dass sich der Nano-Hype in einer ähnlichen Phase befindet wie der Internet-Hype 1993, kurz bevor der Boom losging, konstatiert der "Nanotech Report 2003" von Lux Capital. Die findige Venture-Capital-Gesellschaft aus New York hat die Zeichen der Zeit früh erkannt und vor zwei Jahren schon mal ein Nano-Portfolio angelegt. Dessen Aktien sind seitdem um 215 Prozent gestiegen, sagt Lux-Analyst Josh Wolfe stolz, der Nasdaq-Index dagegen nur um 13,3 Prozent.

Anfang März stellte Bundesforschungsministerin Edelgard Bulmahn das neue Rahmenkonzept zur Förderung der Nanotechnologie vor. 200 Millionen Euro werden in den kommenden vier Jahren in die Leitinnovationen NanoMobil, NanoFab, NanoLux und NanoForLife fließen. Insgesamt 148,2 Millionen Euro schießt die Bundesregierung der deutschen Nanoforschung in diesem Jahr zu. US-Präsident George W. Bush hatte bereits im Dezember im Oval Office, flankiert von strahlenden Repräsentanten der neuen Technik, den 21st Century Nanotechnology Research and Development Act unterzeichnet.

Der beschert Nanoforschern in den USA in diesem Jahr gar knapp 850 Millionen Dollar Fördergelder. Und Mihail Roco, "Mr. Nano" der amerikanischen National Science Foundation, verkündet seit längerem, dass hier eine neue Industrie entstehe, deren Volumen im Jahr 2015 eine Billion Dollar umfassen werde. Wer Aufstieg und Fall der New Economy miterlebt hat, wird sich womöglich die Augen reiben. Geht es etwa schon wieder los?

So gesund Skepsis ist: Wer die aufkommende Unruhe nur als weiteres Indiz für einen erratischen Turbokapitalismus wertet, irrt sich gewaltig. "Der Mensch ist in diesem Moment Zeitzeuge und Gestalter einer zweiten Genesis, einer grundlegend neuen Evolution von materiellen Strukturen, die wir heute noch nicht einmal richtig benennen können", sagt Gerd Binnig. "Wir wissen aber, dass wir an dieser epochalen Schwelle stehen, und zwar genau deshalb, weil wir Strukturen zunehmend feiner und raffinierter beobachten und gestalten können, bis in den atomaren Bereich hinein."

Der aus Frankfurt stammende Physiker ist kein Mann, der leichtfertig große Worte dahersagt -- Binnig weiß, wovon er spricht: Zusammen mit dem Schweizer Heinrich Rohrer erfand er 1981 am IBM-Labor in Rüschlikon das Rastertunnelmikroskop, jenes Gerät, das die Tür in den Nanokosmos weit öffnete und den beiden Forschern fünf Jahre später den Physiknobelpreis brachte. Als Rohrer 1978 den jungen Binnig anheuert, wollen die beiden sehr dünne Schichten auf Metalloberflächen mit Hilfe des "Tunneleffekts" untersuchen. Weil in der Quantenmechanik Elektronen nie einen festen, sondern immer nur einen wahrscheinlichen Aufenthaltsort haben, kann es vorkommen, dass sie sich durch Energiebarrieren, ja sogar durch Vakuum hindurchbewegen. Physiker nennen das "tunneln". Rohrer und sein Kollege Binnig konstruieren eine Anlage, bei der eine ultrafeine Nadelspitze extrem nah über der Probe in Position gebracht wird. Damit wollen sie einen Tunnelstrom zwischen Oberfläche und Spitze messen.

Am 16. März 1981, nach 27 Monaten Arbeit, erhalten Binnig und Rohrer das erste eindeutige Messergebnis: Es gibt einen Zusammenhang zwischen Tunnelstrom und Abstand. Die Stromstärke steigt drastisch an, je näher die Spitze an der Oberfläche ist. Mit Hilfe dieser Erkenntnis bauen die zwei Forscher das Rastertunnelmikroskop. Im Unterschied zum Elektronenmikroskop liefert es nicht nur Bilder in atomarer Auflösung, sondern auch die Höhenunterschiede einer Oberfläche wie in einer topografischen Karte.

Was die beiden damals nicht wussten: Mit dem neuartigen Mikroskop hatten sie einen großen Schritt hin zur Vision des großen amerikanischen Physikers Richard Feynman gemacht. Der hatte 1959 in seinem berühmten Vortrag "There's plenty of room at the bottom" am California Institute of Technology seinen verblüfften Zuhörern eröffnet, "dass es im Prinzip für einen Physiker möglich wäre, jeden chemischen Stoff herzustellen, den ihm der Chemiker aufschreibt. Der gibt die Anweisungen, und der Physiker setzt sie um. Wie? Indem er die Atome dort platziert, wo der Chemiker sie haben will."

Auch wenn Feynman den Begriff damals noch nicht gebrauchte, gilt der Vortrag heute weithin als die Geburtsstunde der Nanotechnologie. Den Namen prägte 1974 der japanische Ingenieur Norio Taniguchi. 1989 kam Don Eigler am IBM Almaden Research Center dann Feynmans Vision noch näher -- ein Jahr nach dem Tod des Vordenkers. Als er mit einem Kollegen Xenon-Atome auf einer Platinoberfläche untersuchte, entdeckte er, dass sie sich mit der Spitze des Rastertunnelmikroskops auch bewegen lassen. Aus 35 Xenon- Atomen montierte Eigler die drei Buchstaben "IBM". Gerd Binnig erfand in den Achtzigern noch ein weiteres Nanowerkzeug: das Kraftmikroskop. Der Messfühler bestand aus aus einem 70 Mikrometer langen Siliziumhebel (Cantilever), an dessen Ende eine hauchfeine Spitze herabhängt. Wird diese von einem Oberflächenatom zum Beispiel elektrostatisch angezogen, verbiegt sich der Cantilever -- und genau dies kann über die Verschiebung eines am Hebel reflektierten Laserstrahls gemessen werden. Der Vorteil: Im Unterschied zum Rastertunnelmikroskop muss die Probe nicht elektrisch leitend sein. Man kann nun jedes beliebige Material in atomarer Auflösung studieren.

Doch nicht nur die Physiker arbeiten sich mit ihren Methoden zum Feintuning des Nanokosmos vor. Auch Chemiker und Biologen haben in den vergangenen Jahrzehnten gelernt, die Bausteine der Materie und des Lebens mit immer größerer Präzision zu untersuchen und zu manipulieren. Bereits in den dreißiger Jahren hatte der Jenaer Glashersteller Schott ein Verfahren entwickelt, mit dem sich Beschichtungen ganz gezielt mit neuen, verblüffenden Eigenschaften herstellen lassen: den Sol-Gel-Prozess. Bringt man ein Silan -- ein Silizium-Atom, an dem vier Alkoholgruppen hängen -- mit Wasser zusammen, werden die Alkohole teilweise abgetrennt und durch ein Wassermolekül ersetzt. Das resultierende Silanol klumpt leicht zu so genannten Kolloiden zusammen, die bereits wenige Nanometer groß sind. In wässriger Lösung schwimmend bilden sie das Sol. Entzieht man dem durch Erhitzen oder Verdampfen das Wasser, beginnen sich die Silanole zu einem dichten Netz zu verketten. Aus dem Sol wird ein zähflüssiges Gel.

"Das Faszinierende am klassischen Sol-Gel-Prozess war, dass man damit Kolloide gemacht hat. Sie sind nanoskalig, sie streuen kein Licht, und wenn man sie in einer dünnen Schicht auf eine Oberfläche bringt, ist die Schicht transparent. Das hat die Glashersteller damals furchtbar fasziniert", erzählt Helmut Schmidt, der Leiter des Instituts für Neue Materialien (INM) in Saarbrücken. In den siebziger Jahren stellte er sich eine andere Frage: Was passiert, wenn man an die Kolloide noch organische Moleküle anknüpft, an deren Ende etwa das Element Fluor sitzt? Trägt man ein Sol solcher Fluorsilane hauchdünn auf eine Oberfläche auf, sammeln sich die Fluorenden beim Aushärten an der Oberfläche. Weil sie wasserabweisend sind, ballen sich Wassermoleküle darauf zu dicken Tropfen zusammen, und Kalk oder andere Partikel im Wasser können keinen ausgedehnten Schmutzfilm bilden. Die Oberfläche lässt sich leichter reinigen.

Die Biologie tat ihren ersten großen großen Schritt in die Sphäre der Moleküle, als James Watson und Francis Crick 1953 die exakte Struktur des DNA-Moleküls veröffentlichten. Die gleicht einer langen, verdrillten Strickleiter, bei der Paare der Basen Adenin und Thymin oder Guanin und Cytosin die Sprossen bilden. Es war der Startschuss für die rasante Entwicklung der Molekularbiologie. Sie gipfelte vorläufig in der vollständigen Sequenzierung des menschlichen Genoms, die im Jahr 2000 abgeschlossen war: Mit Hilfe von neuen chemischen Verfahren wie der Polymerase-Kettenreaktion und leistungsfähigen Computern konnte die Abfolge der rund drei Milliarden Basenpaare in der menschlichen DNA ermittelt werden. Mit dieser Information lassen sich im Prinzip sämtliche Proteine, die von kurzen Abschnitten aus Basenpaare kodiert werden, entschlüsseln -- Voraussetzung für ein molekulares Verständnis der Zellprozesse.

Und noch eine Gruppe nähert sich stetig dem Nanokosmos: die Ingenieure. Seit bei Eastman Kodak 1935 ein Kunststofflack -- ein Photoresist -- erfunden wurde, der bei Lichteinfall aushärtet, haben sie die Photolithographie zu einem mächtigen Werkzeug für winzige Strukturen verfeinert. Belichtet man einen mit Photoresist überzogenen Siliziumblock durch eine Maske mit einem Muster, erhärtet sich der Photoresist überall dort, wo Licht auftrifft. Die unbelichteten Stellen lassen sich mit einem Lösungsmittel wegspülen, sodass dort Vertiefungen in den Block geätzt werden können -- die erste Vorstufe zu Schaltkreisen. In 20 bis 30 derartigen Schritten entstehen so heutige Mikroprozessoren, und auch die Zahnrädchen und Hebelchen der Mikrosystemtechnik werden mittels Photolithografie hergestellt. Nach den Gesetzen der Optik entspricht die "Minimum Feature Size", also die mit diesem Verfahren erreichbare kleinstmögliche Struktur, der halben Wellenlänge des verwendeten Lichts. Derzeit sind das 193 oder 157 Nanometer, was eine Strukturgröße bis hinab zu 80 Nanometern ermöglicht.

Mit dem optischen Trick der so genannten Phasenverschiebung sind sogar 50 Nanometer möglich. Noch kleiner geht es mit ultraviolettem Licht (EUV für englisch "Extreme Ultra Violet") von 11 bis 14 Nanometern Wellenlänge, das allerdings energiereicher und damit aufwendiger zu kontrollieren ist.

Es ist genau dieses Zusammentreffen verschiedener Disziplinen im Nanokosmos, das den eigenartigen Charakter der neuen Technik ausmacht. Am Anfang stand weder eine Idee wie etwa die Rechenmaschine, die die Informationstechnologie begründete, noch ein konkretes Produkt wie das Auto, um das herum eine ganze Industrie entstand. Es waren viele verschiedene Erfindungen und wissenschaftliche Entdeckungen im 20. Jahrhundert, die sich jetzt immer rasanter zu etwas ganz Neuem zusammenfügen: der womöglich grundlegenden Technologie des 21. Jahrhunderts überhaupt. Dass kein Forschungszweig sie für sich allein reklamieren kann, diese Erkenntnis setzt sich gerade erst durch. Deshalb behilft man sich auch mit einer pragmatischen Definition: Nanotechnologie ist die Gesamtheit aller technischen Verfahren, die Materiestrukturen von unter 100 Nanometern Ausdehnung nutzen oder herstellen. Heinrich Rohrer warnt allerdings davor, nur die Miniaturisierung zu betonen.

"Nanotechnologie bedeutet nicht kleiner, schneller, billiger. Nanotechnologie heißt: intelligenter, intelligenter, intelligenter." Zwei Beispiele sollen dies verdeutlichen. Mit Nanopartikeln lassen sich Tumore wie etwa das Glioblastom behandeln, die sich in schwer zugänglichen Regionen des Körpers wie dem Gehirn befinden. Das ist im vergangenen Jahr erstmals Forschern um Andreas Jordan an der Berliner Charité gelungen. Jordan nutzte hierzu superparamagnetische Teilchen, an denen organische Moleküle verankert werden, auf die nur die Tumorzellen anspringen. "Die Nanopartikel werden von den Tumorzellen in einer nie da gewesenen Geschwindigkeit zu Hunderttausenden aufgenommen", sagt Jordan. Setzt man die Teilchen einem magnetische Wechselfeld aus, beginnen sie zu oszillieren und so das Zellplasma auf über 45 Grad zu erwärmen -- nach einer halben Stunde ist die Zelle abgestorben. Die gesunden Zellen, die keine Nanomagneten aufgenommen haben, erwärmen sich hingegen nicht. Im Unterschied zu mikrometergroßen Körnchen verlieren solche Nanopartikel ihren magnetischen Charakter wieder, wenn das Feld abgeschaltet wird. Es bleibt also kein magnetisches Material im Körper zurück. Die Teilchen werden dann mit dem toten Gewebe vom Körper entsorgt und ausgeschieden. Die ersten klinischen Studien, die Jordan durchgeführt hat, sind ermutigend: Bei einem Patienten hat sich der Tumor bereits vollständig zurückgebildet.

Das zweite Beispiel: Unterschreiten Teilchen aus Halbleitern einen Durchmesser von 20 Nanometern, werden sie abrupt zu einer neuen Stoffklasse: den so genannten Quantenpunkten. Obgleich diese Nanopartikel immerhin noch aus hunderten bis zehntausenden Atomen bestehen, verhalten sie sich wie ein riesiges künstliches Atom. Regt man die Quantenpunkte chemisch oder mit Licht an, strahlen sie Photonen einer gewissen Wellenlänge ab. Die lässt sich nun verändern, indem man die Teilchengröße variiert. Firmen wie Evident Technologies aus Troy, New York, verkaufen sie deshalb inzwischen als Biomarker an Labore. Die "Evidots" bleichen im Gegensatz zu herkömmlichen fluoreszenten Farbstoffen auch nach stundenlangem Einsatz nicht aus.

Die Begeisterung über solche lupenreinen Nanoeffekte und die möglichen Anwendungen verstärken die derzeitige Goldgräberstimmung. Jedoch hält Matthias Werner, Unternehmensberater und einer der Autoren einer noch unveröffentlichten Nano-Studie für das Bundesforschungsministerium, die meisten Marktprognosen für zweifelhaft. "Bei Kohlenstoff- Nanotubes", so sagt er, "bekommen Sie natürlich enorme Wachstumsraten, weil der Markt von einem ganz niedrigen Niveau startet."

Die Wundermoleküle wurden 1991 von dem Japaner Sumio Iijima entdeckt. Wie sich herausstellte, können sie sowohl Halbleiter als auch Leiter sein, sie haben mit die höchste Wärmeleitfähigkeit überhaupt und sind fester als Stahl. Billig sind sie nicht: Mit durchschnittlich 180 Euro pro Gramm kosten sie mehr als 100-mal so viel wie herkömmliche Kohlenstofffasern. Auch die Größe künftiger Nanoproduktmärkte hält Werner für erklärungsbedürftig. "Nehmen wir transparente Sonnencreme, die nanokristallines Titandioxid enthält." Nur wenn man mit dem Wert des Endprodukts statt mit dem bloßen Materialwert der Nanokomponente rechne, kämen die "gigantischen Marktvolumina zu Stande". Inmitten der Billionen-Euphorie hebt sich der gerade erschienene Report "Nanotechnology: A Realistic Market Evaluation" des Marktforschungsunternehmens BCC wohltuend ab. BCC teilt den Nanomarkt in drei große Segmente ein: Nanowerkzeuge, Nanowerkstoffe und Nanosysteme. Zusammen, so die Studie, hatten die drei Teilmärkte 2003 ein Volumen von gut 7,5 Milliarden Dollar, bis 2008 soll es auf fast 29 Milliarden wachsen.

Da die physikalische Nanotechnologie mit dem Messen begonnen hat, ist das Werkzeugsegment recht weit entwickelt. Zu den beiden Klassikern sind inzwischen weitere Rastensondenmikroskope hinzugekommen. "Es gibt hier zwei wichtige Trends", sagt Roland Wiesendanger, der das Hamburger Kompetenzzentrum Nanoanalytik leitet. "Der eine ist der parallele Einsatz von vielen Sonden beim Rastern. Der andere ist, Effekte zu finden, mit denen man Bilder mit ganz neuen Kontrasten erzielen kann." Ein Beispiel dafür ist das von ihm entwickelte spinpolarisierte Rastertunnelmikroskop. Legt man ein Material mit mehreren magnetisch verschieden gepolten Flächen unter ein normales Gerät, bekommt man ein atomar scharfes Bild der Kristallstruktur. Von der Magnetstruktur sieht man jedoch nichts. Überzieht man aber die Mikroskopspitze mit einer magnetischen Schicht aus Mangan, kann man diese Struktur sichtbar machen. Die winzigen magnetischen Momente der Elektronen, Folge der quantenmechanischen Eigenschaft des Spins, verändern die Stärke des Tunnelstroms zwischen Manganspitze und Probe. Daraus lässt sich eine aufs Atom genaue Magnetisierungskarte der Oberfläche errechnen. Die Motivation dafür ist nicht nur Forscherdrang, sondern die Aussicht auf neue, dicht beschreibbare Computerspeicher. Selbst in den besten derzeit erhältlichen Festplatten ist ein Bit in der magnetisierten Beschichtung noch immer 200 Nanometer lang und 20 Nanometer breit. Nanotech für jedermann: Handliche, leicht zu bedienende Rastertunnelmikroskope gibt es inzwischen schon ab 7000 Euro Max Planck führt das Wirkungsquantum ein, das den Ausgangspunkt für die Quantentheorie bildet.

Betritt man im Kompetenzzentrum Nanoanalytik an der Universität Hamburg den Messraum im Keller, blickt man in eine komplizierte Ansammlung von Stahlzylindern und -trögen, in die an manchen Stellen Bullaugen und Klappen eingelassen sind, um Proben hineinzugeben. Die ganze Anlage ist gut 2,50 Meter hoch und steht auf vier Quadratmetern Grundfläche. Denn die Messungen in atomaren Dimensionen müssen im Ultrahochvakuum oder bei sehr tiefen Temperaturen dicht am absoluten Nullpunkt erfolgen. Diese extremen Bedingungen werden mit konventioneller Technik erzeugt, und die braucht nach wie vor Platz. Inzwischen gibt es aber auch schon handliche Rastertunnelmikroskope, die sogar Laien bedienen können. Die Geräte der Firma Nanosurf aus Basel sind kaum größer als ein tragbarer CD-Player und nicht für spezielle wissenschaftliche Untersuchungen gedacht. Mit rund 7000 Euro liegen die günstigsten Geräte inzwischen in der Preisklasse von komfortablen Workstation- Rechnern. Nicht nur wegen des Preises sind sie kein Massenprodukt -- wer will schon den Kotflügel seines Autos in atomarer Auflösung abscannen? BCC beziffert den Weltmarkt für Nanowerkzeuge im Jahr 2003 denn auch auf bescheidene 181 Millionen Dollar und rechnet mit einem Wachstum auf das knapp siebenfache Volumen bis 2008.

Ganz anders die Nanowerkstoffe: Sie halten bereits Einzug in unseren Alltag. Eines der erfolgreichsten Unternehmen in diesem Segment ist die Nanogate Technologies GmbH in Saarbrücken. "Wenn Sie in Deutschland wohnen, haben Sie gute Chancen, uns schon nach dem Aufstehen zu begegnen: beispielsweise in der Glaskabine Ihrer neuen Dusche. Auf dem Glas ist eine Easy-to-clean-Beschichtung drauf", sagt Geschäftsführer Ralf Zastrau. "Und wenn Sie dann die Tageszeitung aufschlagen, kann es sein, dass ein Produkt von uns daran beteiligt war." Einige Druckereien statten ihre Walzen inzwischen mit einer Antihaftbeschichtung von Nanogate aus. "Damit lassen sich die Reinigungszyklen der Druckwalzen drastisch verringern. Statt nach jedem Druckjob genügt jetzt eine wöchentliche Reinigung." Das mit Nanopartikeln produzierte Skiwachs "Cerax Nanowax", das die Saarbrücker entwickelt haben, ist jüngst vom "Forbes/Wolfe Nanotech Report" zum Nanoprodukt des Jahres 2003 gekürt worden. Mit mehr als sieben Milliarden Dollar macht das Segment Nanowerkstoffe laut BCC fast den gesamten aktuellen Nanomarkt aus.

Den hohen Wert für einen scheinbar neuen Markt findet Mindy Rittner von BCC gar nicht so erstaunlich: "Einige der erfolgreichsten Materialien sind zwar nanoskalig, aber werden nicht unter dem Label "nano" verkauft. Die Kunden wissen oft gar nicht, dass sie da ein Nanoprodukt nutzen." Bei dem in der gesamten Halbleiterindustrie üblichen Chemical Mechanical Polishing etwa würden seit Jahren Siliziumwafer mit Polituren aus Nanopartikeln glatt geschliffen. Auch fast alle traditionellen Chemie- und Pharmakonzerne stellen inzwischen Nanomaterialien her. "Wir benutzen Nanotechnologie, um unsere Produkte zu verbessern, aber wir benutzen das Label "nano" nicht", sagt Klaus-Peter Nebel, Sprecher des Kosmetikherstellers Beiersdorf, der in einigen Sonnenschutzcremes Titandioxid-Nanopartikel einsetzt, die für eine bessere Absorption des UV-Lichts sorgen. Auch bei Degussa Advanced Nanomaterials in Hanau gibt man sich zurückhaltend: "Unsere Kunden wünschen sich Problemlösungen und neue Funktionen ihrer Materialien. Das auf nano festzuzurren, halte ich nicht für sinnvoll", sagt Christiane Schmitz, zuständig für Marketing & Sales. Während Nanowerkzeuge und -werkstoffe bereits Realität sind, befinden sich die Nanosysteme noch im Stadium der Grundlagenforschung, bestenfalls existieren sie als Prototypen.

Dabei drängt zumindest für die Computerindustrie die Zeit. Denn für die auf integrierten Schaltkreisen aus Silizium basierenden Prozessoren, die seit über dreißig Jahren dem Moore\u2019- schen Gesetz folgen -- nach dem sich ungefähr alle 18 Monate die Leistungsfähigkeit der Chips verdoppelt --, läuft die Uhr ab. Die Kehrseite dieser Erfolgsgeschichte ist nämlich, dass die Miniaturisierung der Schaltkreise in etwa fünf Jahren ihre physikalische Grenze erreicht. Dann wird die Schichtdicke des isolierenden Dielektrikums im Transistor nur noch wenige Atomlagen dick sein. Der quantenmechanische Tunneleffekt, im Rastertunnelmikroskop ein Segen, wird zum Fluch: Elektronen können durch die isolierende Schicht "hindurchtunneln", der Transistor wird unbrauchbar. Selbst wenn man das derzeit übliche Dielektrikum aus Siliziumdioxid durch ein anderes Material austauscht: Spätestens in zehn Jahren müssen ganz neue Prozessorarchitekturen her, die nicht mehr auf dem Transistor basieren können. Und auch bei den Datenspeichern ist eine Grenze absehbar. Wenn die Bitflächen, also jene magnetischen Bezirke einer Speicherschicht, die ein Bit darstellen, unter eine bestimmte Größe schrumpfen, wird das superparamagnetische Limit unterschritten.

Die Spins der Elektronen im Material, die für die Magnetisierung der Bitfläche verantwortlich sind, beginnen durcheinander zu taumeln, weil die thermische Energie der Umgebung die Parallelisierung schwächt -- Magnetisierung und Bit sind dann dahin.

Die großen Computerkonzernein aller Welt arbeiten deshalb fieberhaft an neuen Systemen, die Bits im Nanomaßstab verarbeiten und speichern können. Bei Hewlett-Packard setzt man auf eine "Crossbar Latch" genannte Architektur aus gekreuzten Nanodrähten, zwischen denen schaltbare Moleküle statt Transistoren diese Aufgabe übernehmen (siehe Technology Review, Februar 2004). Das wohl am weitesten fortgeschrittene Speicherkonzept ist IBMs "Millipede"- Chip. Im gegenwärtigen Prototypen liegen 4096 feine Hebelarme oder Cantilever auf einem Quadrat von wenigen Millimetern Seitenlänge in 64 Reihen zu je 64 Hebeln locker auf einer Kunststofffläche auf. Zum Einschreiben der Informationen werden die Hebelspitzen durch einen Strompuls erhitzt und elektrostatisch nach unten gebogen, sodass sie ein Lochmuster in den Kunststoff drücken. Die in Abständen von etwa zehn Nanometern voneinander angeordneten Löcher ermöglichen eine Speicherdichte von rund 150 Gigabit pro Quadratzentimeter. Damit ließen sich mehrere DVDs auf dem Raum einer Flashkarte festhalten.

Ob der Millipede je seinen Weg in die Taschen der Digerati findet, ist noch ungewiss. Und selbst wenn: Als Produkt würde nicht der Millipede, sondern die überlegene Flashkarten-Alternative vermarktet. "Sie werden nicht in einen Laden gehen und solche Nanosysteme kaufen können", sagt Josh Wolfe, einer der führenden Nanotech-Analysten in den USA. "Die werden immer in größere Produkte eingebaut werden." Auch von den medizinischen Nanosystemen, mit denen eines Tages umfassende Diagnosen und Genchecks durchgeführt werden sollen, werden Verbraucher nicht viel mitbekommen. Ein Beispiel ist das "Nanolab", an dem die Nanosystems Biology Alliance arbeitet. Dabei handelt es sich um den Prototyp eines Biochips, mit dem bis zu tausend Zellen gleichzeitig analysiert werden können. Ziel ist, die komplexen Proteinnetzwerke im Inneren von Zellen zu verstehen. Dann könnte sich etwa durch den Nachweis spezieller Proteine, die sich nur bei einer bestimmten Krankheit bilden, in wenigen Minuten eine sichere Diagnose erstellen lassen. Sowohl Josh Wolfe als auch Mindy Rittner erwarten die ersten nanoelektronischen Systeme frühestens in vier Jahren auf dem Markt. Bei funktionierenden Nanobiotech-Systemen geht Wolfe gar von zehn Jahren aus. BCC veranschlagt den Markt für Nanosysteme im Jahre 2008 dennoch bereits auf sechs Milliarden Dollar.

Das alles klingt weniger aufregend, als es die Advokaten des Hypes verkaufen. Ist keine "Killerapplikation" in Sicht, die Nanotechnologie zum Massenprodukt machen könnte, so wie E-Mail und Web das akademische Internet in eine globale Kommunikationssphäre für jedermann verwandelten? Doch, ist man am kalifornischen Foresight Institute überzeugt.

Sein Gründer Eric Drexler war einer der wenigen, der Anfang der achtziger Jahre den zeitweilig in Vergessenheit geratenen Vortrag von Richard Feynman studierte -- und beim Wort nahm. In seinem manifestartigen Werk "Engines of Creation" entwarf er 1986 den "Assembler", eine Art Nanofabrik, die Atome und Moleküle an Bord nehmen und miteinander verbinden kann. Myriaden solcher Assembler könnten dann beliebige makroskopische Gegenstände zusammenbauen. Und zwar in neuartigen molekularen Strukturen, die in der Natur nicht vorkommen. So könnte man etwa Raketentriebwerke aus Kohlenstofffasern und Aluminiumoxid innerhalb eines Tages entstehen lassen, die nur einen Bruchteil heutiger Triebwerke wiegen und gleichzeitig sehr viel stabiler sind. In seinem Fachbuch "Nanosystems" legte Drexler 1992 thermodynamische und mechanische Berechnungen nach. Die wissenschaftliche Nano-Community konnte er damit jedoch nicht überzeugen. Der Münchener Biophysiker Hermann Gaub sieht die Voraussetzungen für einen Assembler schlicht nicht gegeben: "Wir sind bisher nicht in der Lage, gezielt größere Strukturen aus nanoskaligen Bausteinen aufzubauen." Außer der "Self- Assembly", einer Variante des physikalischen Prinzips der Selbstorganisation, gebe es derzeit kein Verfahren. Einen 100 Nanometer großen Drexler'schen Assembler aus vier Millionen Atomen mit einem Rastertunnelmikroskop zu montieren würde zigtausende von Jahren dauern. Der Chemie-Nobelpreisträger Richard Smalley, einer der Entdecker der Buckyballs -- Kohlenstoffmoleküle, in denen 60 Atome im Muster eines Fußballs angeordnet sind --, hat einen weiteren Einwand. Die Atome ließen sich nicht punktgenau anordnen, weil sie durch Wechselwirkungen wie die Van-der-Waals-Kraft zusammenklumpen.

"Solch ein Nanoroboter wird nie mehr sein als die Träumerei eines Futuristen", urteilt Smalley. Vielleicht wird der Drexler'sche Assembler tatsächlich nie über dieses Stadium hinauskommen. Die Idee eines "Materie- Compilers", also einer Box, die auf Knopfdruck aus einem 3- D-Computermodell makroskopische Gegenstände anfertigt, fasziniert jedoch viele Menschen. Und es gibt eine Vorstufe, die "noch" nichts mit Nanotechnik zu tun hat: so genannte 3-D-Drucker. Das ist eine Form des Rapid Prototyping, mit dem seit den achtziger Jahren im Maschinenbau und der Medizintechnik Modelle aus Kunstharzen Schicht für Schicht ausgeplottet werden. Der "Eden 330" der israelischen Firma Objet Geometries zum Beispiel erreicht inzwischen eine Schichtdicke von 16 Mikrometern. Das ist zwar weit von der Nanosphäre entfernt, aber auf Intels erstem Chip betrug die Strukturgröße auch stolze 10 Mikrometer -- auf den neuesten Pentium-4-Chips sind es nur noch 90 Nanometer.

Zu Spekulationen jedoch ist man in der Nano-Community nicht aufgelegt. Dort will man solide Fundamente für die Technik des 21. Jahrhunderts legen. "Die tatsächliche Bereitstellung von Werkzeugen wie etwa dem Rastertunnelmikroskop ist wichtiger als die Beschäftigung mit Utopien", wehrt Roland Wiesendanger ab. "In der Grundlagenforschung ist die Man-kann-Philosophie verbreitet. Innovation ist aber Erfolg am Markt", fügt INM-Chef Helmut Schmidt hinzu. Und was am Markt letztlich zählt, sind offenbar recht nüchterne Kriterien. "Dort kommt es auf den guten, alten Kundennutzen an, den man bei aller Begeisterung für eine Technologie nie aus den Augen verlieren darf", fasst auch Felice Battiston von Concentris seine Erfahrungen zusammen. Das Baseler Start-up hat einen Sensor entwickelt, der mit acht Hebelchen eines Rasterkraftmikroskops arbeitet. Bringt man auf ihnen zum Beispiel kurze DNA-Einzelstränge an, können sich komplementäre Stränge dort anlagern. Weil es auf einigen Hebelchen plötzlich voll wird, verbiegen sie sich. Dieser Effekt wird dann mit einem neuronalen Netz ausgewertet. Dafür hat Concentris vergangenes Jahr den Swiss Technology Award bekommen. Ab Herbst 2004 soll "Cantisens" als Biosensor auf den Markt kommen.

Concentris ist aus der Uni Basel hervorgegangen, dem Schweizer Kompetenzzentrum für nanoskalige Wissenschaft. Auf dieses Konzept, Forschungscluster zu schaffen, setzt auch die Bundesregierung. Das Bundesforschungsministerium (BMBF) schuf bereits 1998 sechs Kompetenzzentren; in diesem Januar kamen drei weitere hinzu. "In den vergangenen Jahren ist es den Zentren gelungen, sich als Ansprechpartner für Nanotechnik zu etablieren. Man ist jetzt bei der Suche nach Expertenwissen nicht mehr auf Insider angewiesen", sagt Volker Rieke, der sich beim BMBF mit Strategiefragen zu neuen Technologien befasst. Aufgabe der Zentren ist es unter anderem, die Gründung von Start-ups zu unterstützen. WIE DIES GELINGEN KANN, zeigt das CeNTech (Center for Nanotechnology) in Münster. Betritt man den hellen Neubau am Rande der westfälischen Universitätsstadt, fühlt man sich ein wenig in die Jahre des New-Economy-Aufbruchs versetzt: statt dröger Laboratmosphäre ansprechende Architektur, ein schicker Holzboden im großzügigen Foyer. Zwei Startups sind bereits in das im vergangenen Sommer eröffnete Center eingezogen, ein drittes ist gerade in Verhandlungen. Dazu kommen Forschungsgruppen, die offiziell zur Universität gehören. "Zwei Nachwuchsforscher sind extra nach Münster gekommen, nur weil das CeNTech existiert", sagt Harald Fuchs, Nanoanalytik-Experte und umtriebiger Anwalt der Nanotechnologie in Deutschland. Im Erdgeschoss befinden sich verschiedene Laborräume, einer davon mit einem vibrationsfreien Boden ausgestattet, um besonders empfindliche Messungen zu ermöglichen.

Es ist ausdrücklich erwünscht, dass die beteiligten Firmen und Gruppen ihre Ausrüstung auch anderen zur Verfügung stellen. "Die Geräte sollen schließlich ihren Zweck erfüllen. Wir Professoren müssen uns von der Denke verabschieden, dass einem die Ausstattung bis zur Emeritierung allein gehört", sagt Fuchs. Dazu kommt die für Nanotechnik typische Interdisziplinarität, die hier greifen könne, weil nicht alle über einen Campus verstreut seien: "Die Biochemiker hatten schließlich die interessanteren Moleküle, die Physiker hatten das Kraftmikroskop." Andreas Schäfer von NanoAnalytics, dem von Fuchs mitgegründeten Start-up, bestätigt dies: "Unsere Kooperationspartner sind nur ein Stockwerk entfernt." Die Baukosten von 7,5 Millionen Euro teilten sich das Land Nordrhein-Westfalen, die Stadt und die Universität Münster. Sie richteten im Unterschied zu herkömmlichen Instituten aber keine Stellen ein. Die Start-ups müssen ihr Kapital selbst mitbringen. Eine Zweigstelle der Life Science Agency übernimmt für das CeNTech die Begutachtung der Geschäftspläne sowie die Patentbewertung. Das BMBF will sich nun auf die eingangs erwähnten Leitinnovationen konzentrieren. "Die entscheidende Frage lautet: Was kann die Nanotechnik für die wichtigen Industrien in Deutschland leisten?", fragt Ministerialstratege Rieke. "Nano- Mobil ist ein gutes Beispiel dafür. Hier soll nicht pauschal die Autoindustrie gefördert werden. Vielmehr geht es darum, das Potenzial der Nanotechnik als Technologie- und Wachstumstreiber zu nutzen, insbesondere in den Lead-Market-Branchen und der mittelständisch geprägten Zulieferindustrie." Bei der Umsetzung von Forschungsresultaten in Produkte müsse man sich nämlich auch vorhandende Vertriebsstrukturen zu Nutze machen.

Das Rennen in die Nano-Economy ist eröffnet. Anders als früher starten die USA, Europa und Japan diesmal auf der gleichen Position. "Bei den Grundlagen brauchen wir uns nicht zu verstecken", sagt Roland Wiesendanger vom Kompetenzzentrum Nanoanalytik. Dem stimmt Josh Wolfe vom "Forbes/Wolfe Nanotech Report" zu: "Es ist das erste Mal seit dem Zweiten Weltkrieg, dass die USA keine deutliche Führung in einem neuen Technikfeld haben." Man solle sich auch nicht vom Umfang der Nanoförderung durch die US-Regierung blenden lassen. "Gemessen am deutschen Bruttosozialprodukt, das nur ein Fünftel des amerikanischen beträgt, ist die Förderung der Bundesregierung höher. Das ist schon beeindruckend."

Ralf Zastrau von Nanogate warnt allerdings davor, sich zu früh auf die Schulter zu klopfen. "Unser altes Problem hierzulande ist, Forschungsergebnisse in Produkte und Markterfolge umzusetzen. Bei den Amerikanern sehe ich schon wieder die aggressive Ausrichtung auf konkrete Produkte und damit letztlich auf Arbeitsplätze in der Industrie, obwohl sie technisch diesmal nicht unbedingt führend sind." In den USA begleiten bereits mehrere professionell aufgezogene Online-Magazine und Newsletter, die sich auf Nanotechnik- Berichterstattung spezialisiert haben, die Entwicklung. Wer im deutschsprachigen Teil des Internets nach Neuigkeiten aus dem Feld sucht, muss sich bislang mit einer einzigen Spezialseite begnügen -- das Thema ist noch nicht angekommen. Auch die Kompetenzzentren oder das BMBF haben noch keine Informationsoffensive gestartet. Dabei ist allen Beteiligten klar, dass ein Debakel wie bei der Gen- und Biotechnik unbedingt verhindert werden muss.

Die Debatte im vergangenen Jahr um die möglichen Gesundheitsrisiken der Kleinstteilchen, die in der chemischen Nanotechnologie eingesetzt werden, war für die Nanoszene ein Warnschuss. "Die Aufklärung über Chancen und Risiken ist das A und O", sagt BMBF-Stratege Rieke. "Die Debatte muss für alle zugänglich und transparent geführt werden." Dass eine solche in Gang kommt, will das Ministerium unter anderem mit weiteren Studien zu den Folgen der Nanotechnologie unterstützen. Die werden schon bald deutlicher zu erkennen sein und zeigen, dass es sich nicht um einen Hype ausgehungerter Venture- Kapitalisten handelt. Sicher: Die eine Nanotech-Industrie wird es nicht geben. Aber genauso wie sehr verschiedene Forschungsfelder die Entwicklung gemeinsam vorantreiben, werden etliche ganz unterschiedliche Branchen mehr und mehr Nanotechnik in bestehende Produkte integrieren. Dazu kommen neue Anwendungen wie nanomedizinische Therapien oder Sensoren, die in der herkömmlichen Technik keine Vorläufer haben -- und womöglich irgendwann eine Killerapplikation, die uns zunächst verblüfft und schnell nicht mehr wegzudenken ist. Auch wenn die Nano-Economy keine Revolution, sondern eine Evolution sein wird: Ohne Pioniergeist und wegweisende Entscheidungen kommt sie nicht.

In diesem Jahr könnte sich bereits entscheiden, ob wir irgendwann im Stau auf Heckscheiben mit "Nano? Nein danke"-Aufklebern starren werden und ob die USA doch noch einsam in die Nano-Economy davonziehen können. Die deutsche Nano-Community hat alle Möglichkeiten, dass es nicht so kommt. Sie muss sie nur umsetzen.

(Aus Technology Review Nr. 5/2004 [1]) (sma [2])


URL dieses Artikels:
https://www.heise.de/-280901

Links in diesem Artikel:
[1] http://www.heise.de/tr/inhalt/2004/05
[2] mailto:s.mattke@gmail.com