Nanotechnologie

( Dział: Nauka, eXister, 4 marzec 2001 )

Oto moje spojrzenie na przyszłość pod kątem nanotechnologii.

Ikarowe loty?

Tranzystory zbudowane z kilku atomów, cały komputer wielkości 10 nanometrów2. Przez najbliższe kilka lat jest to nie do wykonania przez fizyków, jest to nawet trudne do wyobrażenia dla nich. Lecz w 1965 roku fizyk noblista Richard Feynman - ojciec nanotechnologii - wyobrażał to sobie i stwierdził między innymi, że kiedyś będzie trzeba budować "druty" o grubości 1 (jednego) atomu. Już taki zbudowano. Co dalej?
Zatem za 15 lat nasz procesor może mieć 10 nm, czyli około 40 atomów. Żeby "zewrzeć" nóżki ołówkiem trzeba będzie nie lada wprawy i anielskiej cierpliwości. Ale będzie to konieczne i możliwe. Matka natura wykorzystuje nanowielkości przecież od zawsze. Nanomolekuły cechuje specjalna pamięć danych, która przewyższa każdy inny nośnik - są to geny. Pracują one jako np. enzymy tzn. funkcjonują tylko w środowisku wodnym. Dlatego organicznej nanotechnologii nie łatwo przenieść na grunt techniki komputerowej - jak wiemy Volty i woda to nie najszczęśliwsze połączenie, więc by móc budować tranzystory na poziomie jednego atomu potrzebna będzie zatem "sucha" technika ich produkcji.
Dzisiejsze metody produkcji podzespołów są u kresu swych możliwości. Po prostu światło jest za długie. Fala światła mieści się w granicach 380-780 nanometrów. Najważniejszą część produkcji chipa komputerowego to litografia. Polega ona na naświetlaniu materiału do produkcji np. procesorów. Kiedy poszczególne elementy będą tak małe lub mniejsze niż długość fali światła to ich "granice" i ścieżki zaczną się rozmazywać i układ będzie nieprzydatny do niczego. A co gdy cały chip będzie miał 10 nanometrów? Czasowo problem ten rozwiązuje użycie promieni rentgenowskich lub, jeszcze dokładniejszego, bombardowania elektronami.

Narzędzia

W 1986 roku Niemiec Gerd Binnig i Heinnrich Bohr otrzymali Nagrodę Nobla za wynalezienie skaningowego mikroskopu tunelowego. To urządzenie pozwala badać powierzchnię materiałów poszczególnych atomów. To był prawdziwy przełom na drodze do nanotechnologii. Innym narzędziem pracy fizyków jest akcelerator (nie ten "żeby mi Quake szybciej chodził", zupełnie inny, dużo większy i duuużo droższy). Łopatologicznie akceleratory są użyteczne jako młotki do rozkruszania cząstek energii. Rozpędzone i naładowane cząstki zderzają się czołowo. Do eksperymentu wykorzystywane są tunele próżniowe. Niektóre odcinki tej cieniutkiej rury znajdują się pod ogromnym napięciem rzędu kilku milionów volt - służy to dodatkowemu rozpędzeniu cząstek. Używając tuneli w kształcie koła można rozpędzić je prawie do prędkości światła. Badania w akceleratorach dostarczają z jednej strony informacji, jaka jest materia w skali nano, a z drugiej pozwalają się zorientować jakie warunki panowały we Wszechświecie w ułamku sekundy po Wielkim Wybuchu. Takie eksperymenty mogą nasunąć fizykom nowe pomysły, a także wyjaśnić stare problemy.

Ośągnięcia i możliwości

W 1995 roku pracownicy IBM skonstruowali przełącznik z pojedynczego atomu ksenonu. Funkcjonuje on jednak tylko w próżni przy temperaturze bliskiej zeru absolutnemu. Później poszli oni o krok dalej - 48 atomów żelaza połączonych w pierścieniowy łańcuch o średnicy (tychże pierścieni) 12 nm. Było to kolejnym po fullerenach etapem na drodze do produkcji struktur atomowych. Nijaki doktor Lorenz twierdzi, że wyizolowanie pojedynczych atomów dałoby możliwość zapisu wszystkich książek telefonicznych na 1 milimetrze2. Trwałoby to jednak 30 tys. lat. Wyodrębnione cząstki łączyłyby się ze sobą (korzystając z tzw. samoorganizacji) w tzw. kropki kwantowe - obiekty o rozmiarach kilku nanometrów. Tak dalece posunięta miniaturyzacja miałaby swój minus - jakiekolwiek zakłócenie miałoby katastrofalne skutki.
Dzisiejszy komputer by zapisać bit danych potrzebuje 10 tys. elektronów i kilka mniej czy więcej nie robią różnicy. Natomiast gdy cały nośnik danych czy CPU ma 5 atomów to zachowanie każdego z elektronów jest warunkiem funkcjonowania całego układu. Pracę tych urządzeń mogłoby zakłócić nawet normalne promieniowanie kosmiczne. To mikroskopijne środowisko rządzi się własnymi prawami fizyki kwantowej. Rzecz w tym, że cząstki mogą być jednocześnie w kilku miejscach. Potrafią płynnie przeskakiwać (furelować) przez lite ściany. Cząstki te mogą również pobierać i oddawać energię, jednak nie zawsze. Ścianki otaczające elektronową pamięć muszą mieć conajmniej 20 warstw atomów. W przeciwnym wypadku elektrony wyciekałyby wraz z danymi.

Reasumując: za małe się "rozpada", wraz ze zbyt dużymi pojawiają się problemy znane dzisiejszym projektantom chipów. Uspokaja nas stwierdzenie Feynmana, o braku teoretycznych barier, lecz istnieniu jedynie praktycznych, które da się przezwyciężyć.

Fizycy pracują teraz nad komputerem kwantowym, w którym zastosowano by zasady mechaniki kwantowej, ale to dopiero za około pół wieku. Nie możemy podzielić włosa na czworo, a co dopiero na 28 (zakładając, że włos jest zbudowany z 4 atomów). Duży problem będą mieli ci którzy będą chcieli oprogramować takie komputery. Jesteśmy w stanie ustawić atomy, ale wprawienie elektronów w kontrolowany ruch może okazać się syzyfową pracą.

Wszelkie uwagi, pytania, komentarze i ewentualne poprawki proszę kierować pod adres: exister@poland.com.

Witold "eXister" Zagórski

 
Projekt § realizacja:Gomi § Sero
© Wszelkie prawa zastrzeżone.
Kopiowanie i publikowanie jakichkolwiek elementów zawartych
na tych stronach bez zgody autorów zabronione