Strona główna

Postępy elektrotechniki Zastępcze źródła energii


Pobieranie 80.69 Kb.
Data18.06.2016
Rozmiar80.69 Kb.

Tytuł wykładu: Postępy elektrotechniki - Zastępcze źródła energii




  1. Odnawialne źródła energii - wykorzystanie energii słonecznej oraz energetyka wiatrowa

  2. Wykorzystanie nadprzewodnictwa.

  3. Energetyka jądrowa rozszczepialna i fuzja jądrowa

  4. Magazynowanie energii i ogniwa paliwowe

  5. Komputer kwantowy



Elektrotechnika podobnie jak inne dziedziny techniki przeżywa w ostatnich latach przeobrażenia związane z olbrzymim postępem technologicznym XX wieku. Z kolei kryzys energetyczny zmusza do pozyskiwania energii z tzw. odnawialnych źródeł. Stad tez celem wykładu jest zapoznanie słuchaczy z nowymi zagadnieniami dotyczącymi odnawialnych, zapasowych w stosunku do konwencjonalnych źródeł energii.

Dodatkowo przedstawiony zostanie wykład dotyczący bieżącego postępu z zakresu komputerów kwantowych, które także zaliczyć można do nowych wyzwań XXI wieku.



Projekt ITER

czyli szansa na rozwiązanie europejskich problemów energetycznych
Dotychczasowe konwencjonalne źródła energii oparte na węglowodorach coraz bardziej się wyczerpują, o czym świadczą coraz wyższe ceny ropy naftowej, gazu, węgla. Dotychczas stosowana energetyka jądrowa oparta na rozszczepieniu jąder uranu budzi nie tylko w Polsce duże sprzeciwy społeczne, szczególnie w kolejne rocznice Czarnobyla. O zasadności tych obiekcji świadczyć mogą również inne awarie, ostatnio reaktora w Tokai-mura w Japonii, wywołana przedawkowaniem wsadu uranowego oraz pęknięciem skorodowanych przewodów ze skażoną wodą. Chociaż nie spowodowała ona zbyt wielkich ofiar, to wymagała częściowej ewakuacji osiedla położonego 100 km od Tokio. Należy dodać, że społeczeństwo japońskie również nie wyraziło zgody na budowę nowych reaktorów jądrowych, co w konsekwencji powoduje przedłużenia żywotności dotychczas działających, co czasem przynosi właśnie takie negatywne efekty.

Zdając sobie sprawę z trudności w pozyskaniu nowych źródeł energii coraz bardziej przekonywującą staje się konieczność rozwiązania problemów energetycznych poprzez budowę reaktora kontrolowanej syntezy termojądrowej.

I to właśnie jest przedmiotem międzynarodowego projektu ITER – International Thermonuclear Energy Reactor. Ze względu na jego skalę projekt ten ma być realizowany przez wspólnotę międzynarodową pod auspicjami Międzynarodowej Agencji Energii Atomowe. Realizatorami projektu mają być takie państwa jak Japonia, USA, Rosja, Indie, Chiny, Korea, Szwajcaria oraz Unia Europejska w tym Polska.

ITER ma być reaktorem doświadczalnym o skali co prawda większej od reaktorów stosowanych w fizyce jądrowej, ale jednak mniejszej od przewidywanych elektrowni opartych na reakcji syntezy jądrowej. Będzie on miał moc 500 MW wytwarzaną przez paliwo, którym jest plazma wodorowa o temperaturze 100 milionów stopni Celsjusza . Jest to więc dopiero droga do przemysłowego wykorzystania reakcji termojądrowej, co zgodne jest z nazwą tego urządzenia iter – po łacinie oznaczającą właśnie drogę.

ITER zbudowany zostanie w Europie we francuskiej miejscowości Cadarache w Prowancji i przewiduje się oddać go do użytku w 2016 r.

Rys. 1 Przekrój reaktora termojądrowego ITER


Jego konstrukcja przedstawiona na rysunku 1 odpowiada reaktorom typu tokamak. W cylindrycznej komorze próżniowej cyrkuluje przyspieszana plazma utrzymywana polem magnetycznym wytwarzanym przez elektromagnesy nadprzewodnikowe. Zastosowanie elektromagnesów nadprzewodnikowych umożliwia uzyskanie silniejszego pola magnetycznego w porównaniu do klasycznych elektromagnesów, przy jednocześnie zmniejszonych gabarytach. Zjonizowana wyładowaniami elektrycznymi z centralnego wysokonapięciowego generatora pola elektrycznego plazma jest przyspieszana w toroidalnej komorze tokamaka i w wyniku zderzeń jonów zachodzić powinna reakcja syntezy termojądrowej. Gabaryty projektowanego urządzenia ITER pokazanego na rysunku są opisane następującymi parametrami. Zewnętrzny promień toru plazmy wynosi 6.2 m, wewnętrzny 2.0 m, objętość plazmy wynosi 840 m3, prąd 15 MA, toroidalna indukcja magnetyczna wzdłuż osi 5,3 T, moc potrzebna do zapłonu 500 MW, czas zapłonu > 400s, wzmocnienie uzyskanej mocy > 10. O rozmiarach tego urządzenia świadczy wysokość uzwojeń nadprzewodnikowych rzędu 7 m. Elektromagnesy nadprzewodnikowe w tokamakach typu ITER stanowią podstawę konstrukcji wytwarzającej silne pole magnetyczne utrzymujące i ukierunkowujące ruch plazmy oraz występują w uzwojeniach korekcyjnych zapewniających taki ruch strumienia plazmy, żeby nie stykał on się ze ściankami komory, co ze względu na temperaturę plazmy prowadziłoby do przepalenia ścian. Żaden materiał nie oprze się takiej temperaturze. Warunkiem przeprowadzenia reakcji w zjonizowanej plazmie jest bowiem uzyskanie temperatury zapłonu rzędu 108 stopni Celsjusza. Są to więc reakcje zachodzące przy bardzo wysokiej temperaturze. Dotychczas powstały trzy duże doświadczalne urządzenia tego typu: JT-60 w Japonii, JET w Zachodniej Europie oraz TFTR w USA, natomiast samą ideę tej konstrukcji zaproponowali w 1950 r. dwaj rosyjscy laureaci nagród noblowskich I. Tamm oraz A. Sacharow, stąd rosyjska nazwa tokamak pochodząca od skrótu "тороидальная камера в магнитных катушках" – toroidalna komora w magnetycznych uzwojeniach. Urządzenia te zaczęły pracować w połowie lat 80-tych i są bliskie uzyskania odpowiednich granic umożliwiających samoczynne podtrzymanie reakcji syntezy termojądrowej. Otrzymano już zjonizowaną wysokotemperaturową plazmę o gęstości bliskiej do wymaganej do wystąpienia zapłonu, jak również odnotowano wstępne sukcesy przy prowadzeniu reakcji typu D-T w urządzeniu JET i TFTR.

Rys. 2. Wykorzystanie źródeł energii w 2001 r. w USA z przeznaczeniem na elektryczność i inne (np. ciepło)
Rysunek 2 przedstawia procentowe wykorzystane energii elektrycznej z zasobów pochodzących z różnych żródeł. Generalnie przyjąć można, że energia elektryczna stanowi 40 % produkowanej energii i stale wzrasta, wręcz proporcjonalnie do rozwoju ekonomicznego danego państwa. Największe zużycie energii elektrycznej na głowę mieszkańca ma miejsce w krajach wysoko-uprzemysłowionych takich jak Kanada i USA.

Szczególnie istotne jest pytanie o bezpieczeństwo reaktorów termojądrowych w porównaniu z rozszczepialnymi, w których zachodzi reakcja łańcuchowa. Ponieważ plazma jest ściskana w tak zwanej butelce lejdejskiej siłami magnetycznymi, więc brak jest ściśle określonych granic obszaru, w którym zachodzi reakcja fuzji, co jest cechą tokamaków, która powoduje, że uszkodzenie konstrukcji nie będzie prowadzić do katastrofy – po prostu plazma ulegnie wygaszeniu na zewnątrz reaktora. Również nie ma wielkiego niebezpieczeństwa wystąpienia dużego wypływu plazmy, gdyż jest ona w gruncie rzeczy na granicy minimalnego ciśnienia niezbędnego dla zachodzenia reakcji. Podstawowym elementem wpływającym na bezpieczeństwo procesu syntezy termojądrowej jest fakt, że w rezultacie tego procesu powstaje cząstka He4, która jest stabilnym nie promieniotwórczym pierwiastkiem w porównaniu do promieniotwórczych jąder uranu powstających w reakcjach łańcuchowych reaktorów rozszczepialnych, natomiast neutrony są pochłaniane przez otoczenie.


J. Sosnowski

Komputer kwantowy – perspektywy i rzeczywistość
Wiek XX charakteryzował się gwałtownym rozwojem cywilizacyjnym i związanych z tym odkryć naukowych. Do jednego z ważniejszych wynalazków minionego stulecia zaliczyć należy konstrukcję komputerów. Postępująca szybko miniaturyzacja przyspieszyła i ułatwiła proces obliczeń numerycznych. Wraz ze zmniejszeniem odległości pomiędzy poszczególnymi elementami powoli osiągana jest granica odległości międzyatomowych, co staje się obszarem obowiązywania mechaniki kwantowej.

Proces miniaturyzacji konkuruje z problemami odprowadzania ciepła wydzielonego podczas pracy komputera. Każdy z istniejących obecnie komputerów klasycznych zasilany elektrycznie, w czasie intensywnej pracy zaczyna nagrzewać się co ogranicza, w skrajnych przypadkach, możliwości przeprowadzania prawidłowych obliczeń. Podwyższona temperatura może mieć wpływ na stan bramek logicznych w układach scalonych. Zwykle są to bramki wielowejściowe, na wyjściu natomiast wytwarzany jest pojedynczy sygnał. Nieznana jest na ogół sama procedura przetwarzania sygnału wewnątrz bramki, tylko znany jest wynik. Stąd też pojawia się pewna nieodwracalność informacji - z sygnału na wyjściu nie zawsze można odczytać sygnały wejściowe w sposób jednoznaczny. Opisuje to reguła Landauera, dotycząca układów nieodwracalnych, która mówi, że skasowanie jednej jednostki informacji (bitu) wymaga wydatkowania pewnej energii, która przekształcona zostaje w ciepło. Skasowanie informacji jest więc procesem dysypacyjnym. Natomiast o ile proces obliczeniowy jest odwracalny zgodnie z regułą Landauera nie powinna mieć miejsca dysypacja (rozpraszanie) mocy. Odwracalnymi są procesy ewolucji izolowanego układu kwantowego, opisane operacją unitarną nad wektorem stanu początkowego układu. Odwracalność macierzy unitarnych umożliwia zidentyfikowanie stanu początkowego z informacji o stanie końcowym układu kwantowego. Stąd też, na przełomie lat 70 i 80-tych ubiegłego wieku, powstała koncepcja komputera kwantowego. Pomysłodawcami tej idei byli słynni uczeni, głównie amerykańscy, jak Richard Feynman, Charles Bennett, Paul Benioff, a także Polak pracujący w Wielkiej Brytanii Artur Ekert i inni. Istota pomysłu polega na koncepcji odwracalnych, logicznych bramek kwantowych, w których nie zachodzą zjawiska dysypatywne. Jak wynika z powyższego rozumowania takie odwracalne bramki można zbudować na bazie istniejących o jednakowej ilości wejść i wyjść. Dla przykładu przedstawmy odwracalną bramkę jednowejściową typu NIE: xy , w postaci tablicy:

x

y

0

1

1

0

Tablica odwracalnej, kwantowej bramki logicznej NIE
Najbardziej uniwersalną, gdyż z jej pomocą można wykonać wszystkie funkcje logiczne, jest odwracalna, trójwejściowa, a więc i trójwyjściowa bramka Toffoliego, zwana też kontrolowane-kontrolowane–NIE (CCN). Jest ona odwracalnym odpowiednikiem klasycznej bramki NAND i opisana jest symbolicznie relacjami logicznymi: CCN: (x,y,z) (x,y,z+xy).

Jednak dopiero w ostatnich dniach, a dokładnie 13 lutego br. w prasie ukazała się wiadomość, że naukowcy z mało znanej firmy kanadyjskiej D-Wave, zlokalizowanej w Kolumbii Brytyjskiej zapraszają na pokaz zbudowanego przez siebie komputera kwantowego o nazwie Orion.

Widok układu procesora (chipu) zastosowanego w prototypie komputera kwantowego Orion (Internet)


Niezbyt duże zainteresowanie świata nauki tą notatką wynikało zarówno z pewnego niedowierzania w osiągnięcia tak niewielkiej firmy, w porównaniu z gigantami na rynku komputerowym IBM, Apple, Intel, Motorola, NEC, jak również z faktu, ze sami naukowcy stwierdzali, że skonstruowane urządzenie nie jest jeszcze prawdziwym komputerem kwantowym, ale wczesnym prototypem. Przeprowadzona demonstracja działania tego komputera miała charakter teletransmisji z wykorzystaniem techniki przekazu video. Komputer Orion wykonywał polecenia sterowany laptopem, co utrudniało rzeczywistą orientację zarówno w konstrukcji jak i działaniu tego przyrządu. Uzasadniano to zbyt delikatną konstrukcją prototypu. Podczas demonstracji komputer kwantowy uporał się z niezbyt skomplikowanymi, od strony matematycznej, zadaniami – rozmieszczeniem gości na przyjęciu weselnym, ułożeniem puzzli, dopasowaniem molekuły do wzorca - i jak oceniają wynalazcy, w chwili obecnej jest on ok. 100 razy wolniejszy od zwykłych komputerów. Według skąpych informacji, dotyczących prezentowanej konstrukcji, można wnioskować, że chodzi o komputer 16-kubitowy, zawierający miniaturowe, sprzężone elektromagnetycznie, nadprzewodzące pierścienie niobowe, przez które płynie prąd o różnych polaryzacjach, schłodzone do temperatury 0,004 K, a więc niemal temperatury zera absolutnego. W celu uniknięcia szumów cieplnych całość została schłodzona za pomocą skraplarki rozcieńczalnikowej. Widok kriogenicznej części komputera pokazany jest na fotografii.

Widok systemu kriogenicznego ze skraplarką rozcieńczalnikową zastosowanego w prototypie komputera kwantowego Orion (Internet)



Komputer ten musi być jednak konfigurowany za każdym razem, odpowiednio do planowanej operacji, co może być szczególną cechą komputerów kwantowych. Ze względu na nietrwałość stanów kwantowych, niestabilności i tak zwaną dekoherencję, prowadzącą do rozpadu złożonego, splecionego stanu kwantowego kubitu na pojedyncze kubity, komputer kwantowy wymaga do pracy niskich temperatur. Może okazać się, że taki komputer nie jest uniwersalny, lecz przystosowany tylko do pewnych kategorii obliczeń numerycznych. Według przedstawicieli firmy D-Wave, obecna 16-kubitowa konstrukcja Oriona odpowiada komputerowi jednobitowemu, ale w przyszłym roku oczekuje się już komputera opartego na 1000 kubitach.

Nasuwa się więc pytanie: skąd tak olbrzymie zainteresowanie tą nową generacją komputerów? Odpowiedź związana jest nie tylko z regułą Landauera o bezdysypatywnej pracy, ale też z podstawową różnicą pomiędzy komputerami klasycznymi a kwantowymi - różnych nośnikach informacji. W przypadku komputera klasycznego nośnikiem informacji jest bit (stan zero-jedynkowy). Ciąg bitów np.: 8, 16, 32, 64 stanowi informację, która podawana jest w postaci napięcia na wejścia tranzystorów, z których zbudowane są procesory. Odpowiednio ustawione bramki logiczne reagują na poziom sygnału: niższe napięcie związane jest z bitem 0, a wyższe - z bitem 1. Dla komputerów kwantowych te stany logiczne nie przyjmują dyskretnych granicznych wartości 0 lub 1, lecz mamy teraz do czynienia ze stanami rozmytymi, zgodnie z zasadami mechaniki kwantowej, opartej na analizie prawdopodobieństwa obsadzeń. Jednostka informacji będzie wówczas składać się z tzw. bitów kwantowych – kubitów, dla których wartości 0 lub 1 są wartościami granicznymi w całym pośrednim zbiorze stanów, w których kubit może się znajdować. Istota kubitu wynika z zasad mechaniki kwantowej, opartej na probabilistycznym opisie zjawisk. O ile w mechanice klasycznej, opartej na równaniach Newtona, mamy do czynienia z deterministycznym, ściśle określonym podejściem, to w przypadku mechaniki kwantowej wszystkie wielkości mierzalne tzw. obserwable określone są z pewną wagą - prawdopodobieństwem znalezienia układu w danym stanie kwantowym. Najlepiej ilustruje to przykład elektronów w atomie. Rozpatrzmy atom wodoru złożony z jednego protonu i okrążającego go elektronu. Elektronowi na niższej, podstawowej orbicie przypiszmy stan kwantowy 0>, natomiast na orbicie wzbudzonej stan kwantowy 1>. Przejście pomiędzy obydwoma orbitami realizuje się wskutek wzbudzenia elektronu, np. naświetlając atom wodoru impulsem światła laserowego. Stan elektronu opisany funkcją falową  można więc, w języku kwantowo-mechanicznym, zapisać w postaci superpozycji dwóch stanów >= a0> + b1>. Współczynniki a i b dodatkowo spełniają warunek normalizacyjny a2 + b2 = 1 zapewniający, że całkowite prawdopodobieństwo znalezienia elektronu będzie równe 1. Tak więc obsadzenie danego stanu kwantowego określone jest tylko z pewnym prawdopodobieństwem, natomiast kubit zamiast dwóch granicznych wartości może przyjmować szereg pośrednich. Jakie to ma konsekwencje obliczeniowe zilustrujemy następującym porównaniem układu czterobitowego i jego odpowiednika kubitowego. Używając 4 bity ustawione w położeniach zero-jedynkowych uzyskujemy 24 kombinacji, czyli jedną z 16 informacji (liczb) możemy dla danego ustawienia zapisać w systemie heksadecymalnym. Natomiast w analogicznym układzie czterech kubitów, przynajmniej teoretycznie, możemy zapisać jednocześnie wszystkie 16 kombinacji oraz przeprowadzić na nich obliczenia. Oznacza to 24 większą sprawność układu 4 kubitów. W przypadku kodu 32 bitowego moc komputera kwantowego będzie już 4,3 109 razy większa niż komputera klasycznego, natomiast dla 64-bitowego niewyobrażalnie, bo aż 180 trylionów większa. Tak więc zasada działania komputera kwantowego przypomina olbrzymi transputer - komputer z obliczeniami równoległymi. Skonstruowanie takiego „transputera” jest więc rzeczywiście fascynującą perspektywą. Jednak problemem komputerów kwantowych, jak wzmiankowano poprzednio, jest nietrwałość stanów kwantowych, co związane jest z zagadnieniem dekoherencji. Wstrzymywało to przez dłuższy czas prace nad realizacją komputera kwantowego.

Można natomiast pokusić się o stwierdzenie, że dopiero idea kwantowego algorytmu Shora, opisującego rozkład dużych liczb na czynniki pierwsze, przyczyniła się do wzrostu zainteresowania komputerami kwantowymi. Algorytm ten ma bowiem podstawowe znaczenie w kryptografii. Im dłuższy szyfr tym trudniej go złamać, stąd też rozłożenie dużej liczby na liczby pierwsze de facto prowadzi do złamania szyfru, co ma jak dobrze wiadomo podstawowe znaczenie z punktu widzenia bezpieczeństwa danych. Przyspieszenie obliczeń z zastosowaniem tego algorytmu w nowych komputerach, w porównaniu do konwencjonalnych, będzie wykładnicze. Również inne algorytmy kwantowe takie jak szybka kwantowa transformata Fouriera (Kitajew, 1995), czy algorytm przeszukiwania baz danych (Grovera, 1995) dadzą przyspieszenie obliczeń. Te względy spowodowały między innymi gwałtowny wzrost zainteresowania komputerami kwantowymi. Poszczególne koncerny zaczęły prześcigać się w rozwiązywaniu tego strategicznego problemu. O ile nawet grupa badawcza z danego kraju jeszcze nie osiągnęła większych sukcesów, to obawa przed konkurencją stymuluje dalsze prace. Realia pozostawiają jednak wiele do życzenia. Dopiero w 2001 r. uczonym ze Stanford University oraz IBM udało się, stosując komputer kwantowy, rozłożyć na czynniki pierwsze liczbę 15. Wiele problemów musi być jeszcze rozwiązanych. Dla przeprowadzenia poprawnych obliczeń nietrwały stan kubitów musi być zapamiętany przez dostatecznie długi okres czasu. Stany kubitowe powinny być dobrze kontrolowane i izolowane od otoczenia. Dobrze zdefiniowany powinien być stan początkowy i końcowy, a co najważniejsze – należy opanować działanie całego komputera kwantowego, poprawnie wiążąc wyniki obliczeń ze stanami kwantowymi układu.

Przyjrzyjmy się teraz kilku przykładom projektów realizacji tej nowej idei. Najprostszą jest omówiony poprzednio atom wodoru z dwoma wartościami poziomów energetycznych oraz skończonym prawdopodobieństwem znalezienia elektronu w każdym z tych stanów. Rozwinięciem tej koncepcji jest pułapka jonowa zaproponowana przez Ciraca i Zollera i wykonana po raz pierwszy przez grupę Monroe’a w formie bramki logicznej XOR. Idea eksperymentu polegała na tym, że w pułapce kwantowej znajdowała się pewna liczba jonów (w oryginalnym eksperymencie jonów berylu). W centralnym obszarze potencjał działający na jony ma postać anizotropowego oscylatora harmonicznego. Jony oddziałują na siebie wzajemnie poprzez odpychanie kulombowskie na atomowych odległościach. Wskutek tego w warunkach równowagi jony są oddalone od siebie o pewną odległość i ustawione wzdłuż linii. Taki stan N jonów pełni rolę kwantowego stanu podstawowego, który oznaczmy zgodnie z poprzednią notacją symbolem 0>. Stan wzbudzony dla poszczególnego jonu jest wówczas opisany symbolem 1a> oraz 1b> dla wyższych poziomów stanów wzbudzonych. Naświetlenie jonów laserem wprowadza je do wyższych stanów kwantowych opisanych według tej notacji symbolami 1a> oraz 1b>. Obserwowalną wielkością jest pochłanianie światła lub fluorescencyjne promieniowanie. Ponieważ zmienia się także pęd jonu w wyniku naświetlania, więc ulega modyfikacji wzajemny mod mechanicznej wibracji układu jonów, tak zwany mod fononowy. Pojawia się wówczas makroskopowy stan splątany układu jonów. W efekcie otrzymujemy wpływ poszczególnych jonów na siebie, co odpowiada w najwyższym uproszczeniu przypadkowi logicznej bramki kwantowej. W ubiegłym roku uczeni z Uniwersytetu w Innsbrucku chwytając w pułapkę jonową osiem atomów wapnia skonstruowali pierwszy kubajt. Umożliwia on budowę macierzy o wymiarach 256x256 bajtów, co może być wykorzystane w pamięciach komputerów kwantowych.

Bardzo obiecująca jest także koncepcja kropek kwantowych po raz pierwszy zaprezentowana przez DiVincenzo. Kropką kwantową jest pewnego rodzaju pułapka w krysztale półprzewodnikowym, która wychwytuje poszczególne elektrony, działając jak pewnego rodzaju studnia potencjału. W przypadku bliskiego położenia poszczególnych kropek uwięzione elektrony zaczną oddziaływać między sobą tunelując do sąsiednich kropek oddzielonych barierami potencjału. I na tym właśnie polega idea bramki logicznej typu CNIE skonstruowanej z pomocą takich dwóch kropek kwantowych. Elektron w pierwszej kropce kwantowej zwany kubitem kontrolnym steruje wówczas stan drugiej kropki kwantowej umieszczonej na atomowej odległości L. Powstaje w ten sposób kubit kontrolowany. Przyłożenie kontrolowanego pola magnetycznego i elektrycznego prowadzi do przesunięć poziomów energetycznych w kropce kwantowej. Absorpcja tak zwanego - impulsu pola elektromagnetycznego w pierwszej kropce kwantowej powoduje, na zasadzie wzajemnego oddziaływania, przejście do wzbudzonego stanu w drugiej kropce, co stanowi zasadą działania najprostszej, logicznej bramki kwantowej. Ostatnio, bo w 2006 r. uczeni z Uniwersytetu w Pittsburgu otrzymali struktury kropek kwantowych, poprzez naniesienie niewielkich germanowych struktur na krzem, w których udawało się umieścić pojedyncze elektrony. Opracowano również metodę przesyłu fotonów pomiędzy tymi kropkami, co jest istotne z punktu widzenia przekazywania (teleportacji) informacji w bramce logicznej. W międzyczasie, zespół prof. C. Boehme wykorzystując atomy fosforu naniesione na kryształy krzemu umieszczone w niskich temperaturach opracował nową metodę odczytu stanu kwantowego atomów przy pomocy magnetycznego rezonansu jądrowego, co pozwalała na odczyt stanu 10 tys. atomów i elektronów.

Inne próby realizacji komputera kwantowego oparte były na koncepcjach: rezerwuaru elektrodynamicznego QED uwięzienia pewnej liczby atomów w pułapce optycznej (Horach), jądrowego rezonansu magnetycznego (NMR) spinów molekuł w cieczach, elektronowego rezonansu paramagnetycznego (EPR) spinów elektronowych (Kane, 1998), rezonansowej spektroskopii nadprzewodzących złącz Josephsona (Averin i in. 1997), fizyce elektronów na powierzchni He4 (Platzman, 1999), układach biologicznych - automaty komórkowe (Lloyd, 1993, Beniamin, 2000), wzbudzeniach topologicznych, koncepcji anionów, ułamkowym efekcie Halla (Kitajew, 1997). Wymienić należy także doniesienia . uczonych z Caltech (USA) z 2004 r. o odwróceniu spinu w komercyjnie produkowanych układach scalonych, co byłoby pierwszym krokiem w kierunku kwantowych układów scalonych. W tym samym roku naukowcy z Caltech donieśli o uzyskaniu ustabilizowanej konfiguracji dwóch splątanych kubitów w złączach Josephsonowskich. Kontynuacją prac w tym kierunku była konstrukcja tranzystora Josephsona oraz opracowanie metody pomiaru pojemności złącz Josephsona, co może służyć jako bezinwazyjna metoda detekcji stanu kubitu. Jak wynika z tych rozważań, prace nad nowymi koncepcjami komputerów kwantowych szczególnego tempa nabrały w ostatnich latach. Prace te prowadzone są w wielu ośrodkach i przebiegają w tak różnych kierunkach (poza tym nie wszystkie informacje są dostępne), więc w tym momencie trudno jest jednoznacznie ocenić, czy zademonstrowany prototyp komputera Orion jest krokiem milowym, czy też jedną z zapowiedzi postępu w tej dziedzinie. Perspektywy dalszego rozwoju przedstawionej tematyki w sposób interesujący oceniają szefowie firmy D-Wave twierdząc, że stratą czasu jest szukanie komputera kwantowego ogólnego zastosowania, na co można wydać miliardy dolarów bez pozytywnego rezultatu, lecz należy skoncentrować się na komputerze specjalistycznym wykonującym w najkrótszym czasie określony typ operacji.
Jacek Sosnowski
Fotowoltaika – wykorzystanie energii słonecznej
Promieniowanie słoneczne coraz częściej wykorzystywane jest do generacji energii elektrycznej. Energia słoneczna wytwarza ciepło, które może służyć do ogrzewania wody i pomieszczeń, jak również wytwarzania energii elektrycznej poprzez odpowiednie turbiny połączone z generatorami. W ogniwach fotowoltaicznych opartych na złączach typu p-n, z których konstruowane są całe panele, pod wpływem promieni słonecznych, generowane jest napięcie elektryczne. Promieniowanie świetlne wykorzystane jest także w efekcie fotoemisji, stanowiącym podstawę budowy fotokomórek i fotodiod.
Wyczerpywanie się konwencjonalnych źródeł surowców energetycznych, takich jak węgiel, ropa naftowa i gaz oraz związane z wykorzystaniem tych surowców problemy ekologiczne, prowadzą do coraz częściej wymienianego, nie tylko w mass-mediach, zagrożenia kryzysem energetycznym.

Konstrukcja paneli elektrowni słonecznej


Wzrasta zainteresowanie ekologicznymi, odnawialnymi źródłami energii – energetyką słoneczną, wiatrową, wodną, geotermiczną, a także energetyką jądrową, czy to w formie rozszczepialnej – opartej na rozszczepieniu jąder uranu, czy też w formie reakcji syntezy jądrowej, której ostatnią propozycją jest międzynarodowy projekt ITER. Dodatkowym aspektem zainteresowania ekologicznymi źródłami energii jest parafowanie przez Polskę protokołu z Kioto (Japonia), nakazującego jego sygnatariuszom redukcję emisji dwutlenku węgla. W dobie ogólnego ocieplenia klimatycznego energetyka słoneczna jest również szansą przezwyciężenia kryzysu energetycznego państw takich jak Polska, nie dysponujących w wystarczającym zakresie własnymi źródłami energii ze żródeł konwencjonalnych.

Fotowoltaika jest dziedziną zajmującą się wytwarzaniem energii elektrycznej z odnawialnego źródła, jakim jest w skali makro Słońce. W dobie kryzysu energetycznego jest to bardzo dynamicznie rozwijająca się dziedzina i należy przypuszczać, że w niedalekiej przyszłości energetyka słoneczna będzie coraz powszechniej wykorzystywana. O rosnącym zainteresowaniu świadczą realizowane projekty poświęcone tej problematyce w programach unijnych. Przemysłowe wykorzystanie energii słonecznej wymaga konstrukcji odpowiednich paneli, budowy systemów magazynowania i przetwarzania energii, co podwyższa koszty w porównaniu z energią uzyskiwaną z tzw. źródeł konwencjonalnych. Jednak sama eksploatacja zbudowanych urządzeń jest już znaczne tańsza. Energetyka słoneczna staje się w coraz większym stopniu uzupełnieniem energetyki konwencjonalnej, o czym świadczą liczne panele cieplne do podgrzewania wody na działkach oraz dachy domów willowych z kolektorami słonecznymi i to nie tylko na południu Europy.



Schemat instalacji grzewczej z kolektorem słonecznym
Energetyka słoneczna znajduje także zastosowanie z przyczyn ekologicznych, szczególnie tam, gdzie ekologia ma większe znaczenie niż ekonomia. Promieniowanie słoneczne jest dostępne praktycznie wszędzie, ale jego przetwarzanie jest jednak kosztowne, gdyż wymaga budowy odpowiedniej aparatury. Promieniowanie docierające do Ziemi jest zbliżone widmowo do promieniowania ciała doskonale czarnego o temperaturze ok. 5700 K. Stąd też pojawia się graniczna moc, jaką można uzyskać bezpośrednio z promieniowania słonecznego na powierzchni metra kwadratowego. Osiąga ona średnio wartość 1 367 W/m2, która nosi nazwę stałej słonecznej. Promieniowanie dociera do zewnętrznej warstwy atmosfery, więc ulega zmniejszeniu w wyniku procesów absorpcji oraz odbić - do powierzchni Ziemi dociera moc rzędu 1 kW/m2. W Polsce mamy średnioroczne nasłonecznienie ok. 3500 MJ/m2, co w przeliczeniu na paliwo odpowiada wartości opałowej 120 kg paliwa umownego. O skali zainteresowania energetyką słoneczną w naszej części Europy świadczyć może fakt, że 23 kwietnia br we wschodnich Niemczech w Brandis, rozpoczęto budowę elektrowni słonecznej o wielkiej mocy. Budowa ta, o powierzchni równej 200 boiskom piłkarskim, realizowana jest na dawnym lotnisku wojskowym i ma zostać zakończona w 2009 r. - przewiduje się uzyskanie energii ok. 40 GWh rocznie. Kontynuacją tych prac jest utworzenie konsorcjum przez firmy: koreańską Dongyang Engineering i niemiecką SunTechnics, które mają zbudować w Korei (400 km na południowy zachód od Seulu) do końca przyszłego roku największą w świecie elektrownię słoneczną o mocy 20 MW. Koszt budowy wyniesie169 mln dolarów.

Wykorzystanie promieniowania słonecznego

Elektrownie słoneczne wykorzystują różne procesy konwersji energii: pośrednio przetwarzają promieniowanie słoneczne na ciepło, a ciepło na energię elektryczną lub bezpośrednio w ogniwie fotowoltaicznym. W pierwszym przypadku mamy do czynienia z tzw. piecami słonecznymi lub kominami słonecznymi. W układzie CRS (Central Receiver System) promienie słoneczne są zbierane z dużego obszaru i skupiane za pomocą odpowiednich luster w jednym punkcie odbiorczym - piecu słonecznym, w którym temperatura osiąga kilka tysięcy stopni. Z kolei w układzie DSS (Distributed Solar System) promieniowanie słoneczne jest kierowane na odpowiednie wymienniki ciepła, przez które płynie ciecz o małej lepkości i dużej pojemności cieplnej. Najczęściej cieczą tą jest olej. Osiąga się w ten sposób dużo niższą temperaturę niż w systemach CRS, jakkolwiek dochodzącą do 400°C. Przykładem takiego rozwiązania instalacji grzewczej jest kolektor słoneczny umieszczony na dachu budynku oraz dalszy obieg cieczy w procesie ogrzewania pomieszczeń.


Widok konstrukcji komina słonecznego


Przykładem przekształcania ciepła promieniowania słonecznego w energie elektryczną jest australijski projekt budowy komina słonecznego - bardzo wysokiego komina (wg projektu o wysokości 1000 m), otoczonego przezroczystym pokryciem, pozwalającym na ogrzewanie się powietrza pod tym pokryciem. Zmniejszeniu ulega wówczas gęstość powietrza i powstaje siła wyporu unosząca go przez komin. Zainstalowana w tej konstrukcji turbina wiatrowa połączona jest z generatorem wytwarzającym energię elektryczną.

Nasłonecznienie obszarów Polski

w skali od a do d (a – najwyższe nasłonecznienie)
Efektywność przedstawionych rozwiązań uzależniona jest od nasłonecznienia poszczególnych obszarów, co dla Polski przedstawiono w podziale na cztery grupy, z których najbardziej nasłoneczniony jest obszar nadmorski. Inną powszechnie znaną ,ekologiczną formą uzyskiwania energii słonecznej jest energetyka wiatrowa i tutaj również obszary nadmorskie wiodą prym, czego przejawem jest wiatrakowy krajobraz polskiego wybrzeża.

Ogniwa fotowoltaiczne

Coraz ważniejszą formą pozyskiwania energii słonecznej jest wykorzystanie ogniw fotowoltaicznych. Zjawisko fotowoltaiczne, będące podstawą działania ogniwa słonecznego, jako pierwszy zaobserwował w 1839 r. Aleksander Edmund Becquerel, oświetlając elektrody umieszczone w elektrolicie. W. Adams i R. Day w 1876 r. zaobserwowali ten efekt na granicy ciał stałych. Ogniwo fotowoltaiczne (inaczej fotoogniwo, solar lub ogniwo słoneczne) oparte jest na złączach typu p-n.


Schemat złącza p-n i ruch nośników mniejszościowych

pod wpływem napromieniowania
Na rysunku przedstawiającym schemat złącza p-n, z lewej strony jest widoczny półprzewodnik typu n, natomiast z prawej typu p, a pomiędzy nimi tworzy się warstwa zaporowa. W warunkach równowagi poziomy Fermiego (zaznaczone linią przerywaną) wyrównują się, co prowadzi do odpowiedniego zakrzywienia struktury pasmowej w obszarze złącza. O ile spolaryzujemy złącze, przykładając potencjał dodatni do obszaru p, a ujemny do obszaru n, to potencjały Fermiego ulegają rozszczepieniu po obydwu stronach złącza. Bariera potencjału na złączu maleje, co prowadzi do przepływu nadmiarowych elektronów z obszaru n do p i analogicznie dziur z obszaru p do n. Mamy wówczas do czynienia z przepływem prądu elektrycznego przez złącze. Odwrotna sytuacja ma miejsce w przypadku przyłożenia zaporowej polaryzacji do złącza. Wówczas bariera potencjału na złączu ulega podwyższeniu i prąd nie może płynąć – złącze nie przewodzi. Analogiczne efekty przepływu prądu uzyskamy nie tylko poprzez przyłożenie napięcia, ale naświetlając jedną okładkę złącza (np. typu n) fotonami, o energii przewyższającej wartość przerwy energetycznej. Generowane są wówczas elektrony w paśmie przewodnictwa i jednocześnie powstają w ich miejsce dziury w paśmie walencyjnym. Jakkolwiek ze względu na występowanie bariery potencjału, większościowe nośniki prądu, jakimi są elektrony, nie mogą przedostać się przez tę barierę, to jednak mniejszościowe nośniki (dziury) dyfundują z okładki typu n do p. .owe nośniki prądu za,-n,anowi yczne.słonecznej pokazuje ryunek.O ile naświetlimy tylko jedną okładkę złącza np. typu n, podczas gdy złącze typu p pozostaje nienaświetlone, to wówczas ma miejsce niesymetryczny przepływ ładunku. Przez ogniwo fotowoltaiczne, którego schemat pokazano na rysunku, zaczyna płynąć prąd.

Schemat ogniwa fotowoltaicznego


Fotowoltaiczne ogniwo słoneczne umożliwia więc bezpośrednie przetwarzanie energii promieniowania na prąd elektryczny, poprzez wykorzystanie półprzewodnikowego złącza typu p-n, w którym pod wpływem fotonów, o energii większej niż szerokość przerwy energetycznej półprzewodnika, elektrony przemieszczają się do obszaru n, a dziury do obszaru p. Przemieszczenie ładunków elektrycznych powoduje pojawienie się różnicy potencjałów, czyli napięcia elektrycznego. Ogniwa fotowoltaiczne produkuje się zwykle z krystalicznego krzemu. Krzem Si jest pierwiastkiem chemicznym z grupy półmetali (o wartościowości 4) i posiada stabilne izotopy 28Si, 29Si i 30Si. Jakkolwiek odkryty został ponad 100 lat temu, to nadal stanowi podstawę przemysłu elektronicznego. Wynikać to może z jego powszechnej dostępności, gdyż zawartość krzemu w skorupie ziemskiej wynosi wagowo 26,95%, co czyni go drugim po tlenie najbardziej rozpowszechnionym pierwiastkiem.

Pojedyncze ogniwo słoneczne wytwarza na ogół moc ok. 17 W. Ogniwa te, w celu uzyskania większej mocy, montowane są w panelach o powierzchni 0,21 m2. Zaletami ogniw fotowoltaicznych jest ich bezobsługowość oraz długi czas życia rzędu 30 lat. Z tego względu ogniwa słoneczne wykorzystywane są w technice kosmicznej, ale coraz częściej stosowane są również w warunkach życia codziennego, np. w bateriach słonecznych, w zegarkach, kalkulatorach i in., a nawet na ulicach Warszawy do zasilania urządzeń sygnalizacyjnych w ruchu drogowym. Ogniwa słoneczne zaczynają być także stosowane do ogrzewaniu domów, szczególnie położonych w znacznej odległości od sieci energetycznych. Oczekuje się wykorzystania tych ogniw w transporcie, np. lotniczym. W 1981 r. samolot Solar Challenger o skrzydłach pokrytych bateriami słonecznymi przeleciał nad kanałem La Manche wykorzystując jako źródło zasilania energię słoneczną. Z kolei w maju br katamaran o napędzie z baterii słonecznych odbył pierwszy rejs przez Atlantyk. W karawaningu i żeglarstwie stosuje się ogniwa słoneczne do doładowywania akumulatorów zasilających silniki samochodowe lub krótkofalówki na pokładzie jachtów pełnomorskich.



Fotoemisja -zewnętrzny efekt fotoelektryczny

Działanie ogniw słonecznych opiera się na tzw. zw. i uzyskania większej mocy wewnętrznym efekcie fotoelektrycznym, gdzie elektrony pochłaniające fotony przenoszone są z pasma walencyjnego do pasma przewodnictwa. Natomiast duże znaczenie praktyczne ma zewnętrzny efekt fotoelektryczny, gdzie materiał półprzewodnikowy jest naświetlany światłem o wyższych częstotliwościach. Wskutek tego elektrony, pochłaniając promieniowanie, przechodzą do stanów energetycznych przewyższających tzw. poziom energetyczny próżni (pracę wyjścia) i są emitowane z kryształu. Efekt ten jest pokazany schematycznie na rysunku przedstawiającym międzypasmowe przejścia fotoelektronowe w półprzewodniku.

Zjawisko to zwane fotoemisją po raz pierwszy zostało zaobserwowane w 1895 r. przez fizyków niemieckich Hansa Geitela i Juliusa Elstera, którzy skonstruowali fotokomórkę. Odkryli oni, że elektrony (zwane wówczas promieniami katodowymi) są emitowane z katody po oświetleniu jej światłem, a przepływ elektronów jest wprost proporcjonalne do natężenia światła. Pierwsza fotokomórka zainstalowana została w 1931 r. w mechanizmie drzwi restauracji w West Haven w USA. Na podobnej zasadzie działają też fotodiody próżniowe – lampy próżniowe do wykrywania i pomiaru natężenia światła. Najważniejszym elementem fotokomórki jest katoda emitująca elektrony. Stąd też materiał, z którego jest ona wykonana ma duże znaczenie. Na rysunku pokazano zależność wydajności fotoemisji Y od rodzaju materiału fotokatody w funkcji energii światła padającego na kryształ.

Krzywe wydajności kwantowej fotoemisji Y z monokryształów: 1- CdS,

2-3 HgSe, w funkcji E energii promieniowania świetlnego
Na rysunku widoczne są zmiany wydajności kwantowej fotoemisji w zależności od energii światła oraz jakościowa zmiana kształtu krzywej fotoemisji, po przekroczeniu określonej wartości progowej. Obserwowane krzywe zawierają dwie składowe. Jedna z nich, wyżej energetyczna - liniowo zależy od energii fali świetlnej, natomiast niżej energetyczna - zależy od energii świetlnej w sposób potęgowy, z wykładnikiem potęgi 5/2, co widać na rysunku wykonanym w skali Y2/5. Zależność kwantową fotoemisji można więc opisać wzorem: , gdzie Ep i Es są progowymi wartościami energii fotonu dla obydwu przebiegów. Zgodnie z modelem teoretycznym, liniowy obszar zależności wydajności fotoemisji od energii promieniowania odpowiada procesom prostym - wyżej energetycznym, natomiast potęgowa zależność - procesom skośnym, które jakkolwiek zachodzą przy niższej energii, to jednak jako efekty dwuetapowe charakteryzują się niższą wydajnością kwantową.

Międzypasmowe przejścia fotoelektryczne w półprzewodniku:

wewnętrzne i zewnętrzne (przejścia proste i skośne)


W procesach przejść skośnych, proces fotoemisji związany jest z wyjściem elektronu z kryształu pod wpływem absorpcji fotonu, przy jednoczesnej emisji wirtualnego fononu. W procesach przejść prostych, pojedynczy elektron absorbuje foton. Występowanie obydwu procesów będzie zachodzić po przekroczeniu przez padające fotony odpowiednich wartości progowych fotoemisji: dla procesów skośnych z udziałem wirtualnego fononu Es oraz prostych, bezpośrednich wymagających wyższej energii napromieniowania Ep. Wartości progów fotoemisyjnych (skośnego Es i prostego Ep) dla różnych monokryształów wynoszą odpowiednio: 4,77 eV i 5,16 eV (CdTe), 4,80 eV i 5,16 eV (CdS), 4,70 eV i 5,15 eV (HgSe) oraz 4,75 eV (HgTe) dla progu skośnego. Czułość fotodiod próżniowych jest jednak niewielka (rzędu mikroamperów na lumen), natomiast przepływające prądy osiągają wartości kilkudziesięciu mikroamperów, przy napięciu między anodą i katodą rzędu kilkudziesięciu woltów. Zaletą fotodiody próżniowej jest bardzo krótki czas reakcji rzędu nanosekund.

Na zakończenie zaznaczmy, że energia promieniowania słonecznego może także ulegać przekształceniu w energię chemiczną, czego przykładem jest fotosynteza zachodząca w organizmach żywych. Sprawność tego procesu jest jednak bardzo niska - rzędu 1%. Istnieją także metody umożliwiające wykorzystanie fotonów do dezynfekcji i detoksykacji oraz dysocjacji wody.



Jacek Sosnowski


©snauka.pl 2016
wyślij wiadomość