Die Wahrheit über Nanotechnologie

Seite 4: Die Wahrheit über Nanotechnologie

Inhaltsverzeichnis

Betritt man im Kompetenzzentrum Nanoanalytik an der Universität Hamburg den Messraum im Keller, blickt man in eine komplizierte Ansammlung von Stahlzylindern und -trögen, in die an manchen Stellen Bullaugen und Klappen eingelassen sind, um Proben hineinzugeben. Die ganze Anlage ist gut 2,50 Meter hoch und steht auf vier Quadratmetern Grundfläche. Denn die Messungen in atomaren Dimensionen müssen im Ultrahochvakuum oder bei sehr tiefen Temperaturen dicht am absoluten Nullpunkt erfolgen. Diese extremen Bedingungen werden mit konventioneller Technik erzeugt, und die braucht nach wie vor Platz. Inzwischen gibt es aber auch schon handliche Rastertunnelmikroskope, die sogar Laien bedienen können. Die Geräte der Firma Nanosurf aus Basel sind kaum größer als ein tragbarer CD-Player und nicht für spezielle wissenschaftliche Untersuchungen gedacht. Mit rund 7000 Euro liegen die günstigsten Geräte inzwischen in der Preisklasse von komfortablen Workstation- Rechnern. Nicht nur wegen des Preises sind sie kein Massenprodukt -- wer will schon den Kotflügel seines Autos in atomarer Auflösung abscannen? BCC beziffert den Weltmarkt für Nanowerkzeuge im Jahr 2003 denn auch auf bescheidene 181 Millionen Dollar und rechnet mit einem Wachstum auf das knapp siebenfache Volumen bis 2008.

Ganz anders die Nanowerkstoffe: Sie halten bereits Einzug in unseren Alltag. Eines der erfolgreichsten Unternehmen in diesem Segment ist die Nanogate Technologies GmbH in Saarbrücken. "Wenn Sie in Deutschland wohnen, haben Sie gute Chancen, uns schon nach dem Aufstehen zu begegnen: beispielsweise in der Glaskabine Ihrer neuen Dusche. Auf dem Glas ist eine Easy-to-clean-Beschichtung drauf", sagt Geschäftsführer Ralf Zastrau. "Und wenn Sie dann die Tageszeitung aufschlagen, kann es sein, dass ein Produkt von uns daran beteiligt war." Einige Druckereien statten ihre Walzen inzwischen mit einer Antihaftbeschichtung von Nanogate aus. "Damit lassen sich die Reinigungszyklen der Druckwalzen drastisch verringern. Statt nach jedem Druckjob genügt jetzt eine wöchentliche Reinigung." Das mit Nanopartikeln produzierte Skiwachs "Cerax Nanowax", das die Saarbrücker entwickelt haben, ist jüngst vom "Forbes/Wolfe Nanotech Report" zum Nanoprodukt des Jahres 2003 gekürt worden. Mit mehr als sieben Milliarden Dollar macht das Segment Nanowerkstoffe laut BCC fast den gesamten aktuellen Nanomarkt aus.

Den hohen Wert für einen scheinbar neuen Markt findet Mindy Rittner von BCC gar nicht so erstaunlich: "Einige der erfolgreichsten Materialien sind zwar nanoskalig, aber werden nicht unter dem Label "nano" verkauft. Die Kunden wissen oft gar nicht, dass sie da ein Nanoprodukt nutzen." Bei dem in der gesamten Halbleiterindustrie üblichen Chemical Mechanical Polishing etwa würden seit Jahren Siliziumwafer mit Polituren aus Nanopartikeln glatt geschliffen. Auch fast alle traditionellen Chemie- und Pharmakonzerne stellen inzwischen Nanomaterialien her. "Wir benutzen Nanotechnologie, um unsere Produkte zu verbessern, aber wir benutzen das Label "nano" nicht", sagt Klaus-Peter Nebel, Sprecher des Kosmetikherstellers Beiersdorf, der in einigen Sonnenschutzcremes Titandioxid-Nanopartikel einsetzt, die für eine bessere Absorption des UV-Lichts sorgen. Auch bei Degussa Advanced Nanomaterials in Hanau gibt man sich zurückhaltend: "Unsere Kunden wünschen sich Problemlösungen und neue Funktionen ihrer Materialien. Das auf nano festzuzurren, halte ich nicht für sinnvoll", sagt Christiane Schmitz, zuständig für Marketing & Sales. Während Nanowerkzeuge und -werkstoffe bereits Realität sind, befinden sich die Nanosysteme noch im Stadium der Grundlagenforschung, bestenfalls existieren sie als Prototypen.

Dabei drängt zumindest für die Computerindustrie die Zeit. Denn für die auf integrierten Schaltkreisen aus Silizium basierenden Prozessoren, die seit über dreißig Jahren dem Moore\u2019- schen Gesetz folgen -- nach dem sich ungefähr alle 18 Monate die Leistungsfähigkeit der Chips verdoppelt --, läuft die Uhr ab. Die Kehrseite dieser Erfolgsgeschichte ist nämlich, dass die Miniaturisierung der Schaltkreise in etwa fünf Jahren ihre physikalische Grenze erreicht. Dann wird die Schichtdicke des isolierenden Dielektrikums im Transistor nur noch wenige Atomlagen dick sein. Der quantenmechanische Tunneleffekt, im Rastertunnelmikroskop ein Segen, wird zum Fluch: Elektronen können durch die isolierende Schicht "hindurchtunneln", der Transistor wird unbrauchbar. Selbst wenn man das derzeit übliche Dielektrikum aus Siliziumdioxid durch ein anderes Material austauscht: Spätestens in zehn Jahren müssen ganz neue Prozessorarchitekturen her, die nicht mehr auf dem Transistor basieren können. Und auch bei den Datenspeichern ist eine Grenze absehbar. Wenn die Bitflächen, also jene magnetischen Bezirke einer Speicherschicht, die ein Bit darstellen, unter eine bestimmte Größe schrumpfen, wird das superparamagnetische Limit unterschritten.

Die Spins der Elektronen im Material, die für die Magnetisierung der Bitfläche verantwortlich sind, beginnen durcheinander zu taumeln, weil die thermische Energie der Umgebung die Parallelisierung schwächt -- Magnetisierung und Bit sind dann dahin.

Die großen Computerkonzernein aller Welt arbeiten deshalb fieberhaft an neuen Systemen, die Bits im Nanomaßstab verarbeiten und speichern können. Bei Hewlett-Packard setzt man auf eine "Crossbar Latch" genannte Architektur aus gekreuzten Nanodrähten, zwischen denen schaltbare Moleküle statt Transistoren diese Aufgabe übernehmen (siehe Technology Review, Februar 2004). Das wohl am weitesten fortgeschrittene Speicherkonzept ist IBMs "Millipede"- Chip. Im gegenwärtigen Prototypen liegen 4096 feine Hebelarme oder Cantilever auf einem Quadrat von wenigen Millimetern Seitenlänge in 64 Reihen zu je 64 Hebeln locker auf einer Kunststofffläche auf. Zum Einschreiben der Informationen werden die Hebelspitzen durch einen Strompuls erhitzt und elektrostatisch nach unten gebogen, sodass sie ein Lochmuster in den Kunststoff drücken. Die in Abständen von etwa zehn Nanometern voneinander angeordneten Löcher ermöglichen eine Speicherdichte von rund 150 Gigabit pro Quadratzentimeter. Damit ließen sich mehrere DVDs auf dem Raum einer Flashkarte festhalten.

Ob der Millipede je seinen Weg in die Taschen der Digerati findet, ist noch ungewiss. Und selbst wenn: Als Produkt würde nicht der Millipede, sondern die überlegene Flashkarten-Alternative vermarktet. "Sie werden nicht in einen Laden gehen und solche Nanosysteme kaufen können", sagt Josh Wolfe, einer der führenden Nanotech-Analysten in den USA. "Die werden immer in größere Produkte eingebaut werden." Auch von den medizinischen Nanosystemen, mit denen eines Tages umfassende Diagnosen und Genchecks durchgeführt werden sollen, werden Verbraucher nicht viel mitbekommen. Ein Beispiel ist das "Nanolab", an dem die Nanosystems Biology Alliance arbeitet. Dabei handelt es sich um den Prototyp eines Biochips, mit dem bis zu tausend Zellen gleichzeitig analysiert werden können. Ziel ist, die komplexen Proteinnetzwerke im Inneren von Zellen zu verstehen. Dann könnte sich etwa durch den Nachweis spezieller Proteine, die sich nur bei einer bestimmten Krankheit bilden, in wenigen Minuten eine sichere Diagnose erstellen lassen. Sowohl Josh Wolfe als auch Mindy Rittner erwarten die ersten nanoelektronischen Systeme frühestens in vier Jahren auf dem Markt. Bei funktionierenden Nanobiotech-Systemen geht Wolfe gar von zehn Jahren aus. BCC veranschlagt den Markt für Nanosysteme im Jahre 2008 dennoch bereits auf sechs Milliarden Dollar.

Das alles klingt weniger aufregend, als es die Advokaten des Hypes verkaufen. Ist keine "Killerapplikation" in Sicht, die Nanotechnologie zum Massenprodukt machen könnte, so wie E-Mail und Web das akademische Internet in eine globale Kommunikationssphäre für jedermann verwandelten? Doch, ist man am kalifornischen Foresight Institute überzeugt.

Sein Gründer Eric Drexler war einer der wenigen, der Anfang der achtziger Jahre den zeitweilig in Vergessenheit geratenen Vortrag von Richard Feynman studierte -- und beim Wort nahm. In seinem manifestartigen Werk "Engines of Creation" entwarf er 1986 den "Assembler", eine Art Nanofabrik, die Atome und Moleküle an Bord nehmen und miteinander verbinden kann. Myriaden solcher Assembler könnten dann beliebige makroskopische Gegenstände zusammenbauen. Und zwar in neuartigen molekularen Strukturen, die in der Natur nicht vorkommen. So könnte man etwa Raketentriebwerke aus Kohlenstofffasern und Aluminiumoxid innerhalb eines Tages entstehen lassen, die nur einen Bruchteil heutiger Triebwerke wiegen und gleichzeitig sehr viel stabiler sind. In seinem Fachbuch "Nanosystems" legte Drexler 1992 thermodynamische und mechanische Berechnungen nach. Die wissenschaftliche Nano-Community konnte er damit jedoch nicht überzeugen. Der Münchener Biophysiker Hermann Gaub sieht die Voraussetzungen für einen Assembler schlicht nicht gegeben: "Wir sind bisher nicht in der Lage, gezielt größere Strukturen aus nanoskaligen Bausteinen aufzubauen." Außer der "Self- Assembly", einer Variante des physikalischen Prinzips der Selbstorganisation, gebe es derzeit kein Verfahren. Einen 100 Nanometer großen Drexler'schen Assembler aus vier Millionen Atomen mit einem Rastertunnelmikroskop zu montieren würde zigtausende von Jahren dauern. Der Chemie-Nobelpreisträger Richard Smalley, einer der Entdecker der Buckyballs -- Kohlenstoffmoleküle, in denen 60 Atome im Muster eines Fußballs angeordnet sind --, hat einen weiteren Einwand. Die Atome ließen sich nicht punktgenau anordnen, weil sie durch Wechselwirkungen wie die Van-der-Waals-Kraft zusammenklumpen.

"Solch ein Nanoroboter wird nie mehr sein als die Träumerei eines Futuristen", urteilt Smalley. Vielleicht wird der Drexler'sche Assembler tatsächlich nie über dieses Stadium hinauskommen. Die Idee eines "Materie- Compilers", also einer Box, die auf Knopfdruck aus einem 3- D-Computermodell makroskopische Gegenstände anfertigt, fasziniert jedoch viele Menschen. Und es gibt eine Vorstufe, die "noch" nichts mit Nanotechnik zu tun hat: so genannte 3-D-Drucker. Das ist eine Form des Rapid Prototyping, mit dem seit den achtziger Jahren im Maschinenbau und der Medizintechnik Modelle aus Kunstharzen Schicht für Schicht ausgeplottet werden. Der "Eden 330" der israelischen Firma Objet Geometries zum Beispiel erreicht inzwischen eine Schichtdicke von 16 Mikrometern. Das ist zwar weit von der Nanosphäre entfernt, aber auf Intels erstem Chip betrug die Strukturgröße auch stolze 10 Mikrometer -- auf den neuesten Pentium-4-Chips sind es nur noch 90 Nanometer.

Zu Spekulationen jedoch ist man in der Nano-Community nicht aufgelegt. Dort will man solide Fundamente für die Technik des 21. Jahrhunderts legen. "Die tatsächliche Bereitstellung von Werkzeugen wie etwa dem Rastertunnelmikroskop ist wichtiger als die Beschäftigung mit Utopien", wehrt Roland Wiesendanger ab. "In der Grundlagenforschung ist die Man-kann-Philosophie verbreitet. Innovation ist aber Erfolg am Markt", fügt INM-Chef Helmut Schmidt hinzu. Und was am Markt letztlich zählt, sind offenbar recht nüchterne Kriterien. "Dort kommt es auf den guten, alten Kundennutzen an, den man bei aller Begeisterung für eine Technologie nie aus den Augen verlieren darf", fasst auch Felice Battiston von Concentris seine Erfahrungen zusammen. Das Baseler Start-up hat einen Sensor entwickelt, der mit acht Hebelchen eines Rasterkraftmikroskops arbeitet. Bringt man auf ihnen zum Beispiel kurze DNA-Einzelstränge an, können sich komplementäre Stränge dort anlagern. Weil es auf einigen Hebelchen plötzlich voll wird, verbiegen sie sich. Dieser Effekt wird dann mit einem neuronalen Netz ausgewertet. Dafür hat Concentris vergangenes Jahr den Swiss Technology Award bekommen. Ab Herbst 2004 soll "Cantisens" als Biosensor auf den Markt kommen.

Concentris ist aus der Uni Basel hervorgegangen, dem Schweizer Kompetenzzentrum für nanoskalige Wissenschaft. Auf dieses Konzept, Forschungscluster zu schaffen, setzt auch die Bundesregierung. Das Bundesforschungsministerium (BMBF) schuf bereits 1998 sechs Kompetenzzentren; in diesem Januar kamen drei weitere hinzu. "In den vergangenen Jahren ist es den Zentren gelungen, sich als Ansprechpartner für Nanotechnik zu etablieren. Man ist jetzt bei der Suche nach Expertenwissen nicht mehr auf Insider angewiesen", sagt Volker Rieke, der sich beim BMBF mit Strategiefragen zu neuen Technologien befasst. Aufgabe der Zentren ist es unter anderem, die Gründung von Start-ups zu unterstützen. WIE DIES GELINGEN KANN, zeigt das CeNTech (Center for Nanotechnology) in Münster. Betritt man den hellen Neubau am Rande der westfälischen Universitätsstadt, fühlt man sich ein wenig in die Jahre des New-Economy-Aufbruchs versetzt: statt dröger Laboratmosphäre ansprechende Architektur, ein schicker Holzboden im großzügigen Foyer. Zwei Startups sind bereits in das im vergangenen Sommer eröffnete Center eingezogen, ein drittes ist gerade in Verhandlungen. Dazu kommen Forschungsgruppen, die offiziell zur Universität gehören. "Zwei Nachwuchsforscher sind extra nach Münster gekommen, nur weil das CeNTech existiert", sagt Harald Fuchs, Nanoanalytik-Experte und umtriebiger Anwalt der Nanotechnologie in Deutschland. Im Erdgeschoss befinden sich verschiedene Laborräume, einer davon mit einem vibrationsfreien Boden ausgestattet, um besonders empfindliche Messungen zu ermöglichen.