Używamy technologii takich jak pliki cookie do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Robimy to, aby poprawić jakość przeglądania i wyświetlać spersonalizowane reklamy. Zgoda na te technologie pozwoli nam przetwarzać dane, takie jak zachowanie podczas przeglądania lub unikalne identyfikatory na tej stronie. Brak zgody lub wycofanie zgody może negatywnie wpłynąć na niektóre cechy i funkcje. Informujemy, że istnieje możliwość określenia przez użytkownika serwisu warunków przechowywania lub uzyskiwania dostępu do informacji zawartych w plikach cookies za pomocą ustawień przeglądarki lub konfiguracji usługi. Szczegółowe informacje na ten temat dostępne są u producenta przeglądarki, u dostawcy usługi dostępu do Internetu oraz w Polityce prywatności plików cookies

Szczegóły znajdziesz w Regulaminie.

Teorie wyjaśniające istote tarcia?

Autor: adrian_88775, 2014-01-02 12:06:14
Dodaj do:
Teorie wyjaśniające istote tarcia?

Rozwiązania (1)

Autor: alanoski1
2
dodano: 2014-01-02 14:35:28
rzypuśćmy, że mamy cząstkę zmuszoną poruszać się bez tarcia po linii prostej między dwiema ściankami. Prawa Newtona mówią, że wędruje ona między nimi ze stałą prędkością w określonym kierunku. Uderzając w ściankę doznaje oddziaływania siły odwracającej jej ruch (dla uproszczenia przyjmiemy, że cząstka nie traci energii podczas zderzeń). Cząstka może mieć tu dowolną prędkość, a zatem również dowolną energię; jest to właśnie jednowymiarowy bilard klasyczny. Cząstka może biec w lewo lub w prawo. Nie będziemy tych przypadków rozróżniać. Przypuśćmy, że obserwujemy cząstkę i wykonujemy jej migawkowe zdjęcia w różnych momentach. Gdy patrzymy na te fotografie nie potrafi my powiedzieć, w którym kierunku porusza się cząstka. Aby uprościć sytuację, powiedzmy, że rozważymy jedynie przypadek, w którym cząstka porusza się zawsze z tą samą prędkością. Mamy tedy następujący model - maleńka kulka, która wędruje na prawo lub na lewo z określoną prędkością i odbija się bez jej zmiany w dwóch ustalonych punktach. Gdy wykonujemy zdjęcia migawkowe w przypadkowych momentach, prawdopodobieństwo znalezienia kulki pośrodku, na którymś z końców, czy też w jakimkolwiek szczególnym punkcie, nie będzie większe. Gdybyśmy nałożyli na siebie wszystkie zdjęcia, doszlibyśmy do wniosku, że mamy takie samo prawdopodobieństwo znalezienia cząstki w dowolnym punkcie.

Jeśli wykonamy podobne doświadczenie z cząstkami kwantowymi, takimi jak elektrony, zdjęcia ukażą nam zupełnie inną sytuację. Te doświadczenia z cząstkami kwantowymi to właśnie bilard kwantowy. Tym razem nie zobaczymy „kulki” w którymś z końców. W większości przypadków uchwycimy cząstkę gdzieś w pobliżu środka. Dla „kwantowej bili” istnieje znacznie większe prawdopodobieństwo znalezienia jej w środku pudełka niż gdzie indziej i zerowe szanse znalezienia jej na krawędzi. Jakie są reguły kwantowe, które tłumaczą tę sytuację?

Zasadę wyjaśniającą, dlaczego nie widzimy „kulki” na żadnym z końców, już znamy. Aby obliczyć prawdopodobieństwo, musimy najpierw wyznaczyć amplitudy. Jeśli mamy do czynienia z dwoma nierozróżnialnymi sytuacjami, to najpierw dodajemy odpowiadające im amplitudy, potem obliczamy kwadrat modułu uzyskanego wyniku. W naszej grze w bilard kwantowy mamy zawsze dwie możliwości, nierozróżnialne na zdjęciach: w każdym z położeń „kulka” może się poruszać na prawo lub na lewo. Aby określić prawdopodobieństwo odszukania „kulki” w pewnym położeniu, musimy najpierw dodać amplitudę znalezienia jej w tym punkcie podczas ruchu w prawo do amplitudy znalezienia jej w tym punkcie podczas ruchu w lewo. W niektórych przypadkach te amplitudy będą się dokładnie znosić, tak właśnie jest na każdym z końców; amplituda dla cząstki poruszającej się w prawo znosi się tutaj z amplitudą dla cząstki poruszającej się na lewo i w rezultacie prawdopodobieństwo znalezienia cząstki na którymś z końców jest równe zeru. Tymczasem amplitudy - sumując się - dają duże prawdopodobieństwo znalezienia tam cząstki. W innych położeniach mamy sytuację pośrednią, amplitudy dla cząstki poruszającej się na prawo i na lewo znoszą się jedynie częściowo. Załóżmy, że jedna ścianka naszego bilardu znajduje się w punkcie o współrzędnej 0, zaś druga w punkcie o współrzędnej a.

W jaki sposób znajdujemy właściwe amplitudy? Zgodnie z zasadą de Broglie'a z cząstką znajdującą się w punkcie x i poruszającą się w prawo wiążemy amplitudę , gdzie p jest pędem cząstki; z kolei z cząstką znajdującą się w tym samym punkcie i poruszającą się w lewo wiążemy amplitudę . Zauważmy, że dzięki pomnożeniu drugiej eksponenty przez -1 suma tych dwu amplitud daje w punkcie x =0 poprawny wynik 1-1=0. Zatem amplituda znalezienia cząstki w punkcie x jest proporcjonalna do . Wiemy jednak, że nigdy nie obserwujemy cząstki przy drugiej ściance, tzn. w punkcie x =a musi być spełniony warunek , gdzie n może przyjmować wartości 1, 2, 3, . . Zatem pęd cząstki kwantowej nie może być dowolny, lecz dla wybranej wartości n: p = . Wypływa stąd zadziwiający wniosek: nie każda prędkość jest dozwolona, lecz tylko takie prędkości, które dają pędy p = mv spełniające powyższy związek. Zasady QM ograniczają dozwolone prędkości cząstki, czyli również jej dozwolone energie! , gdzie n może być równe 1, 2, ...

Korzystając z założeń QM, otrzymaliśmy w naszym modelu bilardu kwantowego warunek na kwantyzację energii - cząstka kwantowa, w odróżnieniu od cząstki klasycznej, znajdującej się w takich samych warunkach, nie może posiadać energii o dowolnych wartościach. Takie właśnie założenie odnośnie wartości energii cząstek drgających przyjął „ojciec” teorii kwantów - Max Planck w celu wyjaśnienia zagadkowych własności promieniowania ciała doskonale czarnego.

Widzimy, że istnieje najmniejsza, różna od zera, dopuszczalna wartość prędkości, z jaką może się poruszać cząstka kwantowa, jest ona równa i zależy od rozmiarów pudełka. Cząstka zamknięta w pudełku musi się poruszać, nie może pozostać w spoczynku, a poruszając się może przyjmować tylko niektóre wartości energii. Takie jest wyjaśnienie hipotezy Plancka. Widzimy, że ten dziwny, kwantowy nakaz dotyczący prędkości jest bezpośrednim wynikiem szczególnego sposobu obliczania prawdopodobieństwa.

Amplitudy prawdopodobieństwa nie należy sobie wyobrażać jako jakiejś własności cząstki, takiej na przykład, jaką jest jej masa. Nie jest ona w większym stopniu właściwością cząstki niż dla monety prawdopodobieństwo wyrzucenia orła lub reszki. Prawdopodobieństwa odnoszą się do wyników obserwacji przeprowadzonych nad cząstką. To, co spostrzegamy, orła lub reszkę, jest cechą monety, lecz nie jest nią prawdopodobieństwo. Nigdy nie obserwujemy prawdopodobieństw ani amplitud prawdopodobieństwa, obserwujemy orły lub reszki, fotony przepuszczone lub zaabsorbowane.

2. Eksperymenty z lustrami Półprzepuszczalnymi

Doświadczenia z lustrami półprzepuszczalnymi ujawniają zadziwiające własności obiektów kwantowych, jakimi są fotony. Lustro półprzepuszczalne po prostu dzieli wiązkę światła na dwie o równych natężeniach, nie zmieniając przy tym całkowitego natężenia i koloru światła. Falowa teoria światła bez trudu wyjaśnia, jak działa zwierciadło półprzepuszczalne. Fala zostaje po prostu rozdzielona na falę odbitą i przepuszczoną, przy czym natężenie obu jest jednakowe. Dwa detektory mierzą zatem fale o takim samym natężeniu. To wyjaśnienie jest zadowalające, dopóki natężenie światła padającego jest dostatecznie duże. Gdy jednak natężenie maleje, stopniowo zaczynamy dostrzegać ziarnistą naturę światła. Co zaobserwujemy, gdy umieścimy liczniki fotonów na drodze obu wiązek i stopniowo będziemy zmniejszać natężenie światła? Mierzone natężenie zaczyna fluktuować. Czasami detektor G zarejestruje nieco więcej fotonów, czasami detektor D, lecz początkowo te fluktuacje są bardzo małe w porównaniu z całkowitą liczbą rejestrowanych fotonów. W miarę zmniejszania natężenia względne fluktuacje stają się coraz większe. Wreszcie dochodzimy do natężenia tak małego, że w danym przedziale czasu przez aparat przelatuje tylko jeden foton.

Wtedy albo detektor G zarejestruje jeden foton, a D żadnego, albo na odwrót - detektor D rejestruje jeden foton a G żadnego. Który detektor zarejestruje foton jest sprawą przypadku, zupełnie tak, jak wynik rzutu monetą.

Choć wiemy wszystko, czego można się dowiedzieć o padającej wiązce światła, nie możemy przewidzieć, który detektor zarejestruje foton. Gdybyśmy powtórzyli to doświadczenie wiele razy, przekonalibyśmy się, że każdy detektor zarejestrowałby w przybliżeniu połowę całkowitej liczby fotonów. Zatem fotony zachowują się w sposób nieredukowalnie losowy.

Rys. 1. Fotony padajšce na zwierciadło półprzepuszczalne

Rys. 1. Fotony padające na zwierciadło półprzepuszczalne
W celu wyjaśnienia tego doświadczenia można przyjąć, że pojedynczy foton pada na zwierciadło półprzepuszczalne, zostaje albo odbity, albo przepuszczony, przy czym prawdopodobieństwo obu zdarzeń jest jednakowe. Niezależnie od tego, ile wiemy o zwierciadle półprzepuszczalnym i o padającej wiązce światła, nic więcej nie możemy powiedzieć o zachowaniu fotonów. Jedyne, co możemy zrobić, to określić prawdopodobieństwo obu możliwości. Ktoś mógłby powiedzieć, że wobec tego powinniśmy spróbować dowiedzieć się czegoś więcej o świetle i zasadach działania zwierciadła, aby móc przewidzieć, jak zachowa się pojedynczy foton. Być może istnieją dwa rodzaje fotonów. Fotony pierwszego rodzaju zostaną odbite od zwierciadła, natomiast fotony drugiego rodzaju zostaną przepuszczone. A może każdy z fotonów jest wyposażony w pewien rodzaj „instrukcji” określającej, jak ma się zachować, gdy uderzy w zwierciadło; coś w rodzaju genu, który określa jego zachowanie w każdej sytuacji. Taka „zmienna ukryta” mogłaby doskonale wytłumaczyć pozorną przypadkowość zachowania fotonów padających na zwierciadło. Gdy mamy do czynienia z jakimś zdarzeniem o charakterze losowym, taka propozycja jest jak najbardziej właściwa. Opiera się ona na założeniu, że w rzeczywistości nic nie zdarza się przypadkowo, że gdzieś istnieje archiwum i - gdybyśmy tylko mogli się do niego dostać - moglibyśmy przewidzieć z całkowitą pewnością przebieg każdego procesu. Taki jest klasyczny ideał fizycznego wyjaśniania. Opiera się on na założeniu, że „księga natury” została napisana raz na zawsze, a każdy element rzeczywistości fizycznej otrzymał ścisłe rozkazy, określające jego zachowanie w każdej sytuacji. Zgodnie z koncepcją klasyczną, każdy eksperyment stanowi próbę stworzenia takich warunków, które pozwoliłyby poznać regułę obowiązującą w danych okolicznościach. Każda cząstka w doświadczeniu zachowuje się tak, jak się zachowuje, ponieważ decyduje o tym ukryty zbiór instrukcji. Zgodnie ze stanowiskiem klasycznym wszelka obserwowana przypadkowość jest konsekwencją naszej nieznajomości owego ukrytego zbioru.

Jeśli istnieją ukryte zbiory instrukcji, to jakie muszą mieć właściwości? Jeżeli wszystkie fotony są wyposażone w „gen” odbicia od zwierciadła lub gen przejścia przez zwierciadło, to jak powinien wyglądać obserwowany świat? Hipoteza zbioru ukrytych instrukcji wprowadzona w celu wyjaśnienia zjawisk losowych prowadzi do ważnych konsekwencji. Przede wszystkim, takie instrukcje muszą być logicznie spójne, tzn. muszą prowadzić do konsekwencji, które się wzajemnie nie wykluczają (gdyby było inaczej, doświadczenia dawałyby sprzeczne wyniki, a to jest niemożliwe). Foton niosący ów specyficzny „gen” odbicia od zwierciadła zawsze ulegałby odbiciu od identycznego zwierciadła. Zbiory instrukcji musiałyby spójnie wyjaśniać wszystkie doświadczenia - nie tylko te, które wyjaśnia konkretna zmienna ukryta, lecz wszystkie eksperymenty, jakie można sobie wyobrazić. Gdy foton będący nośnikiem owego „genu” bierze udział w jakimkolwiek innym doświadczeniu, jest absolutnie niemożliwe, by wynik takiego eksperymentu można było wyjaśnić, odwołując się do zmiennej ukrytej sprzecznej z hipotezą „genu” odbicia. Poza tym, ukryty zbiór instrukcji musi też wyjaśnić wszelkie dające się pomyśleć w przyszłości doświadczenia. Gdyby było inaczej, przeszłość nie pozwalałaby przewidzieć przyszłości lub też mogłaby okazać się z przyszłością sprzeczna. Wolno nam przyjąć, że zbiór instrukcji zależy od czasu tylko wtedy, gdy zmiany instrukcji są przewidywalne i deterministyczne.

Zakładamy, że wyniki pomiarów pewnych aspektów rzeczywistości fizycznej należy wyjaśniać wyłącznie przez odwołanie się do zbiorów instrukcji, tych elementów rzeczywistości, które biorą udział w eksperymencie. Na przykład to, czy dany foton zostanie przepuszczony czy odbity od zwierciadła półprzepuszczalnego, nie powinno zależeć od tego, co dzieje się z innym fotonem w odległym laboratorium. Zakładamy także, że to, czy zostanie on przepuszczony czy też odbity po uderzeniu w zwierciadło, nie zależy od tego, co stanie się z fotonem padającym na to samo zwierciadło w przyszłości. Powyższe założenia są wyrazem zasady lokalności procesów fizycznych. Nie jest wykluczone, że na wyniki pomiarów mogą mieć wpływ pomiary dokonywane w innym miejscu i czasie, o ile tylko pewien sygnał może połączyć zmienne ukryte biorące udział w doświadczeniu. Sygnał taki nie może jednak rozchodzić się z prędkością większą od prędkości światła. Fizycy intensywnie szukali odpowiedzi na pytanie, czy lokalne teorie zmiennych ukrytych mogą wyjaśnić przypadkowość procesów kwantowych, ale jak dotychczas nie udało im się wyjaśnić w ten sposób wyników doświadczeń.

Można mianowicie przeprowadzić prosty eksperyment wykazujący, że nie istnieje prosta zmienna ukryta (albo „gen odbicia”), który determinuje to, czy foton odbije się od zwierciadła. Przypuśćmy, że mamy szereg identycznych zwierciadeł półprzepuszczalnych, ustawionych tak jak na rysunku 2. Foton padający na pierwsze zwierciadło albo się od niego odbije, albo zostanie przepuszczony. Załóżmy, że wynik zależy od pewnej zmiennej ukrytej, która może przyjmować dwie wartości. Jedna powoduje, że foton ulega odbiciu, druga, że zostaje przepuszczony. Jeśli dla danego fotonu zmienna ma wartość determinującą odbicie, foton zostanie odbity i na tym koniec. Pierwszy detektor zarejestruje foton, a wszystkie pozostałe nie zarejestrują niczego. Jeśli natomiast ukryta zmienna ma wartość powodującą przejście przez zwierciadło, to foton przelatuje przez wszystkie zwierciadła i nie zarejestruje go żaden detektor. Zgodnie z QM te dwa wyniki są wprawdzie możliwe, ale prócz nich jest jeszcze wiele innych możliwości. Foton może przejść przez dowolną liczbę zwierciadeł i wciąż ma szansę na odbicie się od następnej. Zgodnie z QM każdy detektor ma szanse zarejestrować foton. Łatwo to wyjaśnić, zakładając, że gdy foton pada na zwierciadło półprzepuszczalne, może zostać odbity lub przepuszczony - wynik jest całkowicie przypadkowy i nie zależy od historii fotonu. Każde spotkanie ze zwierciadłem to nowy rzut monetą. Los fotonu przy zderzeniu jest zawsze niepewny. Niepewność ta jest niewyczerpalna.

Możemy po prostu przyjąć do wiadomości, że gdy fotony padają na zwierciadło półprzepuszczalne, zachowują się w sposób całkowicie nieprzewidywalny. Przy każdym spotkaniu jest jednakowo prawdopodobne, że foton zostanie odbity, i że zostanie przepuszczony. Przyjęcie takiego stanowiska sprawia, że koncepcja fotonu staje się zgodna z teorią falową. Gdy natężenie wiązki jest bardzo duże, w przybliżeniu połowa fotonów ulega odbiciu, a połowa zostaje przepuszczona. Pod każdym praktycznym względem jest to równoważne stwierdzeniu, że wiązka padająca została podzielona na dwie wiązki o jednakowym natężeniu, zgodnie z teorią falową. Taki wniosek wynika również z kwantowej teorii zwierciadeł półprzepuszczalnych. Przewidywania teorii kwantowej nie kończą się jednak na tym stwierdzeniu, o czym przekonamy się rozważając serię spotkań fotonu ze zwierciadłami półprzepuszczalnymi.

Rys. 2. Fotony padające na ciąg równoległych zwierciadeł półprzepuszczalnych

Rys. 2. Fotony padające na ciąg równoległych zwierciadeł półprzepuszczalnych


Rys. 3. Fotony „wędrujące ” między dwoma zwykłymi i dwoma półprzepuszczalnymi zwierciadłami

Rys. 3. Fotony „wędrujące ” między dwoma zwykłymi i dwoma półprzepuszczalnymi zwierciadłami


Przypuśćmy, że foton przelatuje po kolei przez dwa zwierciadła półprzepuszczalne, jak na rysunku 3.

Z1 Z2 zwykłe zwierciadła, P1 P2 zwierciadła półprzepuszczalne.

Padająca wiązka światła zostaje podzielona na dwie równe części i obie wiązki rozchodzą się wzdłuż różnych dróg. Obie padają następnie na drugie zwierciadło półprzepuszczalne, po czym do dwóch detektorów G i D. Możemy regulować długość drogi wewnątrz urządzenia, zmieniając położenie górnego lustra. Przy pewnym ustawieniu lustra tylko detektor D rejestruje jakiekolwiek fotony, natomiast do G światło w ogóle nie dociera. Zmieniając położenie lustra, możemy doprowadzić do tego, by oba fotony rejestrowały wiązki o równym natężeniu. Dalsza zmiana położenia lustra powoduje, że tylko detektor G rejestruje światło, a w ogóle nie dociera ono do D.

Załóżmy, że zmniejszamy natężenie światła padającego tak, że w danym odcinku czasu przez urządzenie przelatuje tylko jeden foton. Co by się działo, gdyby każdy foton był nosicielem „genu” określającego, czy zostanie odbity czy przepuszczony przez lustro półprzepuszczalne? Na rysunku 3 widać, że jeśli foton odbije się od pierwszego zwierciadła, to odbije się również od drugiego, a zatem z całą pewnością zostanie zarejestrowany przez detektor G. Jeśli zaś zostanie przepuszczony przez pierwsze zwierciadło półprzepuszczalne, to zostanie także przepuszczony przez drugie i na pewno zostanie zarejestrowany również przez detektor G. Widzimy zatem, że gdyby fotony były nosicielami „genów” określających ich zachowanie przy zderzeniach ze zwierciadłem półprzepuszczalnym, to powinny zawsze docierać do tego samego detektora, niezależnie od różnicy długości obu ramion urządzenia. Takie przewidywanie jest oczywiście błędne. Przypuśćmy zatem, że zachowanie fotonów podczas zderzenia ze zwierciadłem półprzepuszczalnym jest całkowicie przypadkowe i nie istnieje żaden ukryty zbiór instrukcji określających ich zachowanie, innymi słowy powiedzmy, że każde spotkanie ze zwierciadłem półprzepuszczalnym jest równoważne rzutowi monetą. Okazuje się, że założenie takie również jest błędne. W czasie od emisji do detekcji losy fotonów mogłyby się potoczyć na cztery różne sposoby: foton mógł zostać odbity od obu zwierciadeł, przepuszczony przez obydwa, przepuszczony przez pierwsze i odbity przez drugie, odbity przez pierwszego i przepuszczony przez drugie. Dla ułatwienia możliwości te oznaczymy przez OO, PP, PO, OP. Zwróćmy uwagę, że w przypadkach OO i PP foton z całą pewnością jest rejestrowany przez detektor G, a w przypadkach PO i OP przez detektor D.

Eksperyment jest analogiczny do dwukrotnego rzutu monetą, oznaczoną z jednej strony przez P, a z drugiej przez O. Przy poczynionych założeniach obliczmy prawdopodobieństwo detekcji fotonu przez detektor G i D.

W tym celu musimy przyjąć pewne reguły obliczania prawdopodobieństwa. Pierwszą, jaką tu zastosujemy, zaproponował jeszcze w XVIII w. Laplace; nosi ona nazwę „reguły niedostatecznej racji”. Zgodnie z nią, jeśli nie mamy żadnych innych przesłanek, powinniśmy uznać, że różne możliwe wyniki pojawiające się w danym procesie są jednakowo prawdopodobne. Regułę tę w fizyce statystycznej nazywamy zasadą równych prawdopodobieństw a priori. Zgodnie z tą zasadą, w przypadku rzutu monetą zakładamy, że prawdopodobieństwo otrzymania reszki wynosi 1/2, podobnie jak orła. Jeżeli rzucamy monetą dwa razy, to możliwe są cztery wyniki, zatem każdemu z nich przypisujemy prawdopodobieństwo 1/4. Drugiej zasady nie można przypisać żadnemu konkretnemu matematykowi, lecz była ona powszechnie stosowana w XIX w., głównie przez Bayesa, dlatego czasami nazywa się ją zasadą Bayesa. Zasada ta mówi, w jaki sposób wyznaczać prawdopodobieństwo łączne: jeżeli pewne zdarzenie może nastąpić na wiele sposobów, to jego prawdopodobieństwo jest równe sumie prawdopodobieństw dla każdego sposobu oddzielnie.

W naszym doświadczeniu detektor G może zarejestrować foton w wyniku zajścia dwóch sekwencji zdarzeń, OO i PP, a zatem prawdopodobieństwo detekcji wynosi 1/4 + 1/4 = 1/2. Wynika stąd, że jeżeli zderzenie fotonu ze zwierciadłem półprzepuszczalnym jest analogiczne do rzutu monetą, to w długim ciągu prób z pojedynczymi fotonami oba detektory G i D powinny zarejestrować taką samą liczbę fotonów, niezależnie od różnicy długości Lg iLd, górnej i dolnej drogi fotonu biegnącego przez urządzenie. Widzimy, że i ta hipoteza nie tłumaczy wyniku doświadczenia. Teraz dotarliśmy do istoty problemu. W przypadku bardzo małego natężenia padającej wiązki mamy do czynienia z pojedynczymi fotonami. Wynik zderzenia pojedynczego fotonu ze zwierciadłem półprzepuszczalnym jest analogiczny do wyniku rzutu monetą, a jednak rezultat musi zależeć od różnicy długości dróg, gdyż inaczej byłby sprzeczny z pomiarami przy dużym natężeniu światła, a tym samym z teorią falową. W jaki sposób pogodzić nieredukowalną przypadkowość z interferencją?

Kluczem do rozwiązania problemu jest odkrycie mechanizmu zależności prawdopodobieństwa od różnicy długości dróg. Musimy oczywiście zachować regułę, że prawdopodobieństwo odbicia fotonu jest równe prawdopodobieństwu przejścia, natomiast gdy mamy do czynienia z dwoma kolejnymi spotkaniami ze zwierciadłami półprzepuszczalnymi, prawdopodobieństwo obu zdarzeń łącznie musi zależeć od różnicy dróg. Teoria kwantowa pozwala wyjaśnić ten wynik dzięki odrzuceniu reguł Laplace´a i Bayesa. Jak już mówiliśmy w QM prawdopodobieństwo nie jest wielkością podstawową, lecz na „głębszym poziomie” jest określone przez amplitudę prawdopodobieństwa. Amplituda prawdopodobieństwa nie ma charakteru zmiennej ukrytej, gdyż jej znajomość pozwala obliczyć jedynie prawdopodobieństwo zdarzenia, natomiast nie daje możliwości przewidzenia, że zdarzenie nastąpi z całą pewnością. Co więcej, regułę sumowania prawdopodobieństw zastępujemy regułą sumowania amplitud, którą nazywamy regułą Feynmana. Zgodnie z zasadą Feynmana, amplituda prawdopodobieństwa zdarzenia, które może nastąpić na wiele nieodróżnialnych sposobów jest równa sumie amplitud, dla każdego z tych sposobów oddzielnie. Jak pamiętamy, gdy mamy amplitudę prawdopodobieństwa, to prawdopodobieństwo wyznaczamy obliczając kwadrat modułu amplitudy.

Wyznaczymy teraz amplitudy prawdopodobieństw G|1 i D|1, że foton wychodzący ze źródła 1 trafi odpowiednio do detektora G lub D. Skorzystamy z faktu doświadczalnego, mówiącego, że ilekroć światło odbija się zwierciadła, to odpowiednią amplitudę należy pomnożyć przez i. Widać, więc że:

(pierwszy składnik odpowiada drodze OO a drugi drodze PP).

(pierwszy składnik odpowiada drodze PO a drugi drodze OP).

Dzięki zasadzie de Broglie ´a możemy zauważyć, że



zatem:




Widzimy więc, że jeśli długości dróg Lg i Ld są równe, to detektor G nie zarejestruje żadnego fotonu, co jest zgodne z danymi doświadczalnymi.

Podsumujmy uzyskane wyniki. Zachowanie fotonu podczas zderzenia ze zwierciadłem półprzepuszczalnym jest nieredukowalnie losowe, lecz reguły obliczania prawdopodobieństwa w eksperymentach z wieloma zwierciadłami są zupełnie inne niż te, które obowiązują w klasycznej teorii prawdopodobieństwa. Świat opisywany przez QM jest nieredukowalnie przypadkowy, lecz prawdopodobieństwem rządzą reguły obliczania amplitud prawdopodobieństwa. Dlaczego nieredukowalnie przypadkowe zdarzenia podlegają takim właśnie regułom? Dlaczego prawdopodobieństwa zdarzenia zachodzącego na wiele nierozróżnialnych sposobów, nie można obliczyć za pomocą zwyczajnych reguł rachunku prawdopodobieństwa? Nikt nie zna odpowiedzi na te pytania. Być może odpowiedź ta jest związana z odpowiedzią na inne pytanie: w jaki sposób w świecie, w którym przebieg zjawisk jest nieredukowalnie losowy, w ogóle możliwy jest jakiś porządek?

Z opisanym powyżej eksperymentem wiąże się zadziwiające zjawisko noszące w literaturze nazwę problemu testowania bomb Elitzura-Vaidmana. Wyobraźmy sobie, że grupa terrorystów znalazła magazyn bomb. Każda bomba ma superczuły detektor, tak czuły, że wystarczy przekaz pędu związany z uderzeniem jednego fotonu światła widzialnego w lustro związane z detonatorem, by bomba wybuchła. Znaczna część bomb w magazynie jest jednak zepsuta; oznacza to, że delikatna dźwignia, do której jest przymocowane lustro, została zablokowana, a zatem, gdy pojedynczy foton uderzy w lustro, detonator nie działa i zepsuta bomba nie wybucha. Lusterko w uszkodzonej bombie ma ustalone położenie i nie może się poruszać jak w sprawnym detonatorze. Zadanie polega na wyszukaniu dobrej bomby spośród zbioru zepsutych. Żeby sprawdzić, czy bomba jest dobra, należy poruszyć detonator, a wtedy dobra bomba wybuchnie. Zauważmy, że żadne klasyczne urządzenie nie pozwala sprawdzić, czy detonator jest zablokowany bez dotknięcia go w jakiś sposób, co niechybnie spowodowałoby wybuch sprawnej bomby.

Rozwiązanie problemu z bombami w 1993 r. zaproponowali Elitzur i Vaidman. Pokazali oni, że rozwiązanie go jest możliwe, jeśli wykorzystamy umiejętnie zjawiska kwantowe - w świecie rzeczywistym nie moglibyśmy wyznaczyć sprawnej bomby, nie powodując jej eksplozji, czyli zadanie terrorystów jest niewykonalne w świecie klasycznym. W teorii kwantowej pewien efekt fizyczny może nastąpić dlatego, że detonator mógł się poruszyć, choć w rzeczywistości wcale się nie poruszył! Teoria kwantów ma niezwykle dziwną własność - przyczyną zjawisk fizycznych bywają zdarzenia, które mogły się zdarzyć, ale w rzeczywistości się nie zdarzyły - czyli, jak mówią filozofowie, kontrfakty.

Wykonujemy mianowicie następujące doświadczenie: Zwierciadło Z2 niech będzie połączone z detonatorem bomby, zwierciadło Z1 ustawiamy w taki sposób, że obie drogi fotonu w urządzeniu mają równe długości. Przypuśćmy, że sprawdzamy zepsutą bombę, wtedy mamy pewność, na podstawie wzorów na G|1 i D|1 , że detektor G nie zadziała i wszystkie fotony są rejestrowane jedynie przez detektor D.

Przypuśćmy teraz, że bomba jest sprawna. Skoro tak, to lusterko detonatora może się poruszyć i bomba działa jak urządzenie pomiarowe (dwa możliwe zdarzenie kwantowe - „foton uderzył w zwierciadło” i „foton nie uderzył w zwierciadło” - wzmacnia do poziomu klasycznego, tzn. do dwóch wzajemnie się wykluczających możliwości z poziomu klasycznego: „bomba wybuchła” i „bomba nie wybuchła”). Bomba mierzy dwa możliwe stany fotonu - albo foton uderzył w lustro, albo nie uderzył. Załóżmy, że foton został przepuszczony przez pierwsze lustro półprzepuszczalne P1, a zatem uderza w lustro bomby i następuje wybuch. Straciliśmy bombę. Bierzemy następną i próbujemy ponownie. Być może tym razem pomiar za pomocą bomby pozwala stwierdzić, że foton został odbity od zwierciadła półprzepuszczalnego P1, a zatem nie uderzył w lustro detonatora, lecz poleciał drugą drogą (to właśnie jest pomiar zerowy - tzn. pomiar bez kontaktu z obiektem, na którym został przeprowadzony). Gdy teraz foton dotrze do drugiego zwierciadła półprzepuszczalnego, może z równym prawdopodobieństwem zostać zarejestrowany zarówno przez detektor G jak i D. Gdy zatem wykonujemy doświadczenia ze sprawnymi bombami, to od czasu do czasu detektor G rejestruje foton. Istota rozwiązania tkwi w tym, że sprawna bomba działa jak urządzenie pomiarowe, co zaburza całkowite znoszenie się wkładów od obu możliwych dróg, a tym samym sprawia, że foton może dotrzeć do detektora G - mimo, że foton wcale nie oddziaływał z bombą. Skoro foton nie poleciał jedną drogą, to musiał polecieć drugą. Zainstalowanie „bombowego” aparatu pomiarowego powoduje, że te dwie drogi stają się rozróżnialne i teraz odpowiednie amplitudy prawdopodobieństwa musimy wyznaczać w inny sposób - amplitudy prawdopodobieństwa ulegają zmianie, gdy uprzednio nieodróżnialne możliwości stają się odróżnialne. Jak się okazuje, właśnie dzięki tej zasadzie kwantowa kryptografia wyklucza możliwość podsłuchu.

Gdy bomba jest zepsuta, tylko detektor D może zarejestrować foton. Zatem, ilekroć detektor G zarejestrował foton, możemy być pewni, że znaleźliśmy sprawną bombę, zobaczyliśmy ją, mimo że do niej w ogóle nie dotarło światło - dzięki efektom kwantowym możemy widzieć w ciemności! W ten sposób problem testowania bomb jest rozwiązany. Jak łatwo stwierdzić, znając prawdopodobieństwo różnych możliwości, w długiej serii prób połowa sprawnych bomb wybuchnie i zostanie stracona. Ponadto tylko w połowie przypadków, gdy sprawna bomba nie wybuchła, foton zostanie zarejestrowany przez detektor G. Zatem jeśli sprawdzimy po kolei wszystkie bomby, to znajdziemy tylko 1/4 spośród wszystkich sprawnych bomb, przy czym znalezione bomby są na pewno sprawne. Teraz możemy ponownie sprawdzić pozostałe bomby i znów wyselekcjonować Ľ spośród wszystkich sprawnych bomb, które pozostały w magazynie. Powtarzając wielokrotnie tę procedurę, możemy ostatecznie wyselekcjonować 1/3 (gdyż 1/4 + 1/16 + 1/64 + ... = 1/3) spośród wszystkich sprawnych bomb, reszta wybuchła.

Jest rzeczą godną uwagi, że rozwiązanie w ogóle istnieje. Zgodnie z fizyką klasyczną problem ten jest nierozwiązywalny. Tylko według teorii kwantów kontrfakty mają wpływ na przebieg procesów fizycznych. Nasza procedura kwantowa pozwala osiągnąć coś, co wydawać się mogło niemożliwe, a co rzeczywiście jest niemożliwe z klasycznego punktu widzenia.

Zauważmy, że jeśli nasze urządzenie jest tak ustawione, iż mamy pewność, że detektor D zarejestruje foton, to nie możemy powiedzieć, co się stało z fotonem po uderzeniu w pierwsze zwierciadło półprzepuszczalne, ponieważ do detektora D może on trafi ć dwiema drogami OP i PO. Gdy jednak w dolnym ramieniu umieścimy bombę, wówczas możemy stwierdzić, jak zakończyło się spotkanie fotonu z pierwszy zwierciadłem półprzepuszczalnym. Jeśli bomba wybuchnie, to foton na pewno poleciał przez dolne ramię aparatu. Jeśli nie było eksplozji, a foton został zarejestrowany przez detektor G, to wiemy na pewno, że przeleciał przez górne ramię. Cena, jaką płacimy za wiedzę, którą drogą przeleciał foton, to utrata pewności, że zostanie on zarejestrowany przez detektor D. Nie możemy jednak nawet w teorii skonstruować urządzenia, które pozwoliłoby stwierdzić, którędy przeleciał foton i równocześnie dawałoby pewność, że zostanie on zarejestrowany przez detektor D. Jeśli znamy drogę, nie wiemy, który detektor rejestruje foton, a jeśli wiemy, który detektor rejestruje foton, to nie znamy drogi, jaką on przeleciał. To właśnie nazywamy zasadą nieoznaczoności. Zasada ta musi być spełniona, gdyż inaczej QM byłaby wewnętrznie sprzeczna. Jeśli wiemy, która z możliwości została zrealizowana, to wszystkie następne obserwacje muszą być zgodne z tym faktem. W przypadku naszego „bombowego detektora”, jeśli wiemy na pewno, że foton przeleciał przez górne ramię, to przy spotkaniu z drugim zwierciadłem półprzepuszczalnym musi zachowywać się tak, jakby to było jego pierwsze takie spotkanie. Regułę Feynmana stosujemy tylko wtedy, gdy wcześniejsza historia jest zasadniczo nieznana; w takim przypadku przewidywane wyniki różnią się od przewidywań, do jakich prowadzi proste założenie, że rezultat spotkania fotonu ze zwierciadłem półprzepuszczalnym jest czysto losowy.

Zauważmy, że dzięki umiejętnym manipulacjom wykonanym na amplitudach prawdopodobieństwa, osiągnęliśmy coś, co jest nieosiągalne w świecie klasycznym - potrafi my znaleźć sprawne bomby! Można, więc mieć nadzieję, że inteligentne manipulowanie amplitudami stwarza zupełnie nieoczekiwane możliwości i będzie podstawą technologii XXI w. Komputer kwantowy, o którym wspomnimy w dalszej części pracy, jest jedną z takich ekscytujących możliwości. Musimy zatem jak najszybciej poznać możliwie kompletny zbiór reguł mówiących, jak należy stosować owe amplitudy w różnych sytuacjach. Reguły te należy traktować jako postulaty, leżące u podstaw zgodnego z doświadczeniem systemu pojęć QM.

W części trzeciej tego artykułu omówimy ogólne zasady rządzące amplitudami prawdopodobieństwa oraz urządzenie, z którym uczeni wiążą ogromne nadzieje, mianowicie komputer kwantowy.

Jerzy Szczęsny

Literatura: G. J. Milburn, Procesor Feynmana, Warszawa 2000,
T. Bigaj, Kwanty, liczby, abstrakty. Eseje popularne z filozofii nauki, Warszawa 2002.



Dodaj rozwiązanie
AEGEE - Logo
...