140
Metodologia 5 Eksperymenty naukowe, odkrycia, problemy * - materiał nadobowiązkowy Nauki empiryczne Medycyna Odkrycie szczepionki Wykorzystanie przypadku – Ludwik Pasteur 1

WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Metodologia 5

Eksperymenty naukowe, odkrycia, problemy* - materiał nadobowiązkowy

Nauki empiryczne

MedycynaOdkrycie szczepionki

Wykorzystanie przypadku – Ludwik Pasteur

Ludwik Pasteur, fr. Louis Pasteur (1822 – 1895) – francuski chemik, prekursor mikrobiologii

1

Page 2: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Pasteur w latach 1857-1868 poświecił się badaniom procesów fermentacji i wykazał, że wywołują je drobnoustroje. W wyniku tych badań opracował metodę konserwacji pożywienia poprzez obróbkę termiczną (proces też zwany jest od nazwiska uczonego pasteryzacją) oraz obalił teorię samorództwa drobnoustrojów.

Za najważniejsze osiągnięcie uznawane są jednak wyniki prac z zakresu bakteriologii i wirusologii, które uwieńczone zostały opracowaniem pierwszej szczepionki ochronnej dla ludzi (przeciw wściekliźnie). Badania nad nią prowadził w latach 1881-1885. Już w 1885 została ona z powodzeniem zastosowana u ludzi.

Prace Ludwika Pasteura stały się również wzorcowym przykładem łączenia badań podstawowych i stosowanych w chemii oraz w anatomii i w fizyce.

Szczepionka – preparat pochodzenia biologicznego, zawierający antygen , który stymuluje układ odpornościowy organizmu do rozpoznawania go jako obcy, niszczenia i utworzenia pamięci poszczepiennej. Dzięki tej pamięci, w przypadku kolejnego kontaktu z antygenem (infekcji), odpowiedź immunologiczna wykształca się szybciej i jest silniej wyrażona (odporność wtórna), co ma uniemożliwić naturalny przebieg choroby, wraz z wykształceniem się typowych dla niej objawów klinicznych. Szczepionka może być skierowana przeciwko jednemu czynnikowi chorobotwórczemu (szczepionka monowalentna) lub skojarzona przeciwko kilku czynnikom jednocześnie (poliwalentna).

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

2

Page 3: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Znaczenie badań/eksperymentu dla nauki

Chemia

Tlenowa teoria spalania

Dowód na istnienie – A. Lavoisier

Antoine Laurent de Lavoisier (1743 – 1794) – francuski fizyk i chemik, stracony na gilotynie w wyniku wyroku Trybunału Rewolucyjnego Republiki Francuskiej

3

Page 4: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Lavoisier sformułował pierwszą wersję prawa zachowania masy. Wykazał, że w procesie spalania oraz w procesie produkcji kwasów jest niezbędny tlen (1778). Obalił teorię flogistonu i przyczynił się do zreformowania nomenklatury chemicznej.

Najważniejsze eksperymenty Lavoisiera dotyczyły natury zapłonu i spalania. Ukazały one, że wymienione procesy polegają na łączeniu się substancji z tlenem. Udowodnił także, że tlen odgrywa kluczową rolę przy oddychaniu zwierząt i roślin oraz w procesie rdzewienia metali. Wyjaśnienia Lavoisiera uchyliły teorię flogistonu, która postulowała, że materiały podczas spalania uwalniają substancję zwaną flogistonem.

Odkrył także, że wodór (z gr. hydrogenium, tworzący wodę) w połączeniu z tlenem tworzy wodę. W Sur la combustion en general (O zapłonie, 1777) i Considérations Générales sur la Nature des Acides (Rozważania o naturze kwasów, 1778) wykazał, że "powietrze", będąc składnikiem procesu spalania, jest także źródłem kwasowości. W 1779 "powietrze" odpowiedzialne za spalanie nazwał tlenem (z gr. oxygenium, tworzący kwasy), a pozostałą cześć powietrza nazwał azotem (z gr. bez życia). W Reflexions sur le Phlogistique (Refleksje nad flogistonem, 1783), Lavoisier wykazał niespójność teorii flogistonu.

Eksperymenty Lavoisiera należały do pierwszych, w których stosowano metodę ilościową. Pokazał w nich, że mimo zmian stanu materii podczas reakcji, jej ilość (masa) jest taka sama przed i po reakcji chemicznej. Spalając fosfor i siarkę zauważył, że produkt reakcji ważył więcej niż jej substraty. Wykazał, że nadwyżka wagi jest rekompensowana ubytkiem masy powietrza. Te eksperymenty dały podstawę do sformułowania prawa zachowania masy. Lavoisier badał także skład chemiczny wody, której składniki nazwał tlenem i wodorem. We współpracy z francuskim uczonym Claude-Louisem Bertholletem Lavoisier skomponował chemiczną nomenklaturę (Méthode de nomenclature chimique, 1787). Nazewnictwo to w dużej części jest wykorzystywane także współcześnie, jak np.: kwas siarkowy, siarczany.

Jego dzieło Traité Élémentaire de Chimie (1789; wyd. polskie Traktat podstawowy chemii, w przekładzie Romana Mierzeckiego, 2001) jest uważane za pierwszy nowoczesny podręcznik chemii; zawiera podglądy Lavoisiera na teorie chemiczne, formułuje prawo zachowania masy i zaprzecza istnieniu flogistonu. Lavoisier precyzuje także pojęcie pierwiastka (chemicznego), definiując go jako substancję prostą, która nie może być rozbita na składniki żadną metodą analizy chemicznej. Sformułował także teorię o łączeniu się pierwiastków w związki chemiczne. Podręcznik zawiera także listę następujących pierwiastków: tlen, wodór, azot, fosfor, rtęć, cynk i siarka. Lista zawierała także światło i ciepło, które Lavoisier także uważał za substancje.

Duże znaczenie w życiu Lavoisiera miało zainteresowanie prawem, które prowadziło do zainteresowania się polityką. W wieku 26 lat uzyskał stanowisko poborcy podatkowego w Ferme Generale, prywatnym przedsiębiorstwie zajmującym się poborem podatków, gdzie próbował wprowadzić zmiany we francuskim systemie finansowym i podatkowym. Pracując dla rządu, opracowywał system miar mający zapewnić uniformizację

4

Page 5: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

wag w całej Francji. Jako jeden z 28 francuskich poborców podatkowych został okrzyknięty przez rewolucjonistów zdrajcą i zgilotynowany w Paryżu w roku 1794. Na prośbę uczonego, by egzekucję przesunąć o kilka dni z powodu pracy nad eksperymentem naukowym, przewodniczący trybunału rzekł: „Republika nie potrzebuje uczonych”.

Jego nazwisko pojawiło się na liście 72 nazwisk na wieży Eiffla.

5

Page 6: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

6

Page 7: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Zastosowane procedury badawcze:

metoda ilościowa w eksperymentach

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie badań/eksperymentu dla nauki

Pomiar prężności powietrza

Odkrywanie praw metodą indukcji – R. Boyle

7

Page 8: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Robert Boyle (1627 - 1691 ) – chemik i fizyk brytyjski pochodzenia irlandzkiego

Wykształcenie zdobył w Eton College oraz u prywatnych nauczycieli podczas podróży po Szwajcarii i Włoszech. W trakcie jego pobytu we Florencji nastąpiła śmierć Galileusza. W 1644 powrócił do Anglii, gdzie uczestniczył w spotkaniach grupy uczonych, które później doprowadziły do powstania The Royal Society (Invisible College).

W 1661 r. podał nowoczesną definicję pierwiastka chemicznego. Rozwinął chemiczną analizę jakościową, zastosował wskaźnik umożliwiający rozróżnienie roztworów kwasów oraz zasad. Niezależnie od Edme Mariotte’a sformułował tzw.prawo Boyle'a-Mariotte'a.

Jest autorem The Sceptical Chymist („Sceptyczny Chemik”), w której przedstawił swoje poglądy na temat materii.

Prawo Boyle'a-Mariotte'a, zwane też (głównie w krajach anglosaskich) prawem Boyle'a, a prawem Mariotte'a we Francji, zostało ogłoszone w 1662 r. przez irlandzkiego naukowca Roberta Boyle'a, a niezależnie od niego w 1676 r. przez Francuza Edme Mariotte'a. Prawo to dotyczy zachowania gazu doskonałego w przemianie izotermicznej:

Przy stałej temperaturze objętość V danej masy gazu jest odwrotnie proporcjonalna do jego ciśnienia p.

8

Page 9: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

W postaci matematycznej można to przedstawić jako:

lub:

Prawo Boyle'a-Mariotte'a stanowiło jedną z przesłanek do wyprowadzenia równania stanu gazu doskonałego znanego jako równanie Clapeyrona.

Dla gazów rzeczywistych ze względu na oddziaływania międzycząsteczkowe oraz niezerową objętość własną cząsteczek gazu (cząsteczki gazu doskonałego są punktowe) prawo to nie może być spełnione.

Równanie Clapeyrona, równanie stanu gazu doskonałego – równanie stanu opisujące związek pomiędzy temperaturą, ciśnieniem i objętością gazu doskonałego, a w sposób przybliżony opisujące gazy rzeczywiste. Sformułowane zostało w 1834 roku przez Benoîta Clapeyrona. Prawo to można wyrazić wzorem:

pv = nRT  lub    pV = RT  

gdzie:

p – ciśnienie

v – objętość

V – objętość molowa

n – liczba moli gazu, będąca miarą liczby jego cząsteczek; n = v/V

T – temperatura bezwzględna, T [K]  = t [°C] + 273,15

R – uniwersalna stała gazowa: R = NAkB, gdzie: NA – stała Avogadra (liczba Avogadra), kB – stała Boltzmanna, R = 8,314 J/(mol·K) – uniwersalna stała gazowa: R = NAkB, gdzie: NA – stała Avogadra (liczba Avogadra), kB – stała Boltzmanna, R = 8,314 J/(mol·K)

Izotermy gazu doskonałego. Zakrzywione linie reprezentują zależność pomiędzy ciśnieniem (na osi pionowej) a objętością (na osi poziomej) dla idealnego gazu w różnych temperaturach: linie,

9

Page 10: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

które są dalej od początku (czyli linie, które są bliżej prawego górnego rogu wykresu) reprezentują wyższe temperatury.

Równanie to jest wyprowadzane na podstawie założeń:

gaz składa się z poruszających się cząsteczek cząsteczki zderzają się ze sobą oraz ze ściankami naczynia, w którym się znajdują nie ma oddziaływań międzycząsteczkowych w gazie, z wyjątkiem odpychania w momencie

zderzeń cząsteczek objętość (rozmiary) cząsteczek pomija się zderzenia cząsteczek są doskonale sprężyste

Równanie to, mimo że wyprowadzone w ramach wyidealizowanego modelu, dobrze opisuje większość substancji gazowych w obszarze ciśnień do ok. 100 atmosfer i temperatury do 300 –400 °C, oraz w temperaturze trochę większej od temperatury skraplania gazu przy danym ciśnieniu.

10

Page 11: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

11

Page 12: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Znaczenie badań/eksperymentu dla nauki

Fizyka

Metafizyka i fizyka - badanie natury światła

Zastosowanie modeli do badania zjawisk niedostępnych bezpośredniemu doświadczeniu - Teodoryk z Fryburga

Teodoryk z Fryburga (Dietrich von Freiberg), zwany też Theodoricus Teutonicus (ok. 1250 – 1310)

Autor De luce et eius origine, De coloribus, De iride et radialibus impressionibus, De

intelligentus et motoribus caelorum, De cognitionentium seperatorum, De esse et essentia, De

tempore oz Komentarza do De anima. Najoryginalniejsze poglądy Teodoryka odnajdujemy w

jego De intellectu et intelligibili. Tu wzajemnie oddziałują na siebie metafizyka światła,

noetyka światła i fizyka światła.

Niemiecka mistyka spekulatywna i teoria tęczy

Mistyka Teodoryka jest bliska Eckhartowi, widoczny jest też wpływ neoplatonizmu. Ten

ostatni jest bardzo wyraźny: Jednia, inteligencje, dusze, ciała, byty rozchodzące się kaskadami

(secundum modum emanationis). Jednak Teodoryk nie przyjmuje stworzenia pośredniego.

Ważnym osiągnięciem Teodoryka była teoria tęczy, która była tak nowoczesna, że

przyjął ją później Kartezjusz. Wyraźnie przejawia się tu linia Oksfordu, a także wysiłki

wielkich optyków, Bacona i Witelona, które Teodoryk kontynuuje. Cały renesans geometrii i

optyki XIII w. oparty był na Platonie, podobnie jak rozkwit biologii i przyrodoznawstwa na

Arystotelesie.

Tęcza, skąd się bierze i dlaczego powstaje

Tęcza - zjawisko optyczne, łuk na niebie składający się z siedmiu kolorów spektrum ( widma optycznego) w postaci wstęg. Powstaje na skutek załamania się, odbicia i rozszczepienia

12

Page 13: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

promieni słonecznych w kroplach deszczu lub mgły. Zjawisko to zostało opisane przez Teodoryka z Fryburga w XIV wieku.

Światło, jak wiadomo, rozchodzi się z różną prędkością w zależności od tego w jakim ośrodku się porusza. Najszybciej porusza się w próżni gdzie jego prędkość w przybliżeniu wynosi 300000 km/s. Jednakże prędkość światła przy przechodzeniu przez określony ośrodek zależy także od długości fali światła, czyli jego częstotliwości, jest to tzw. zjawisko dyspersji światła. Światło białe jest światłem złożonym, składa się z wielu „promieni” różniących się od siebie długością fali, a co za tym idzie częstotliwością. Z inną prędkością będzie się poruszała składowa czerwona światła, a z inną składowa fioletowa. Tylko w próżni wszystkie składowe będą się poruszać z jednakowymi prędkościami. Wskutek tej różnicy prędkości kąty załamania także będą różne dla poszczególnych składowych światła.

Najprościej zaobserwować dyspersję światła poprzez oświetlenie światłem białym pryzmatu. Powstała w ten sposób tęcza wynika bezpośrednio z różnicy współczynników załamania dla poszczególnych barw składowych. Najmniejszy współczynnik załamania ma barwa czerwona, i dlatego też jej kąta załamania jest najmniejszy. Natomiast najbardziej odchyla się od początkowego kierunku padania barwa fioletowa, gdyż w wyniku dyspersji, współczynnik załamania dla tej barwy jest największy. W ten sposób światło białe ulega rozszczepieniu na jego poszczególne składowe.

Jako pierwszy w sposób rzeczowy i naukowy opisał tęczę Arystoteles, który tłumaczył jej powstawanie, zjawiskiem załamania się światła na drobinach wody unoszących się w powietrzu. Wytłumaczenie to prawidłowo opisywało okrągły kształt tęczy, ale nic nie mówiło o tym skąd się biorą kolory tęczy. Jednakże był to wystarczający opis przez bardzo długi czas, bo panował aż do 1253 r., kiedy Robert Grosseteste (Oxford) przeprowadził szereg doświadczeń który ukazywały w jaki sposób światło ulega rozszczepieniu na kropli wody. Pracę Grossteste'a kontynuował Roger Bacon, badając zachowanie się światła po przejściu przez naczynia wypełnione wodą. Te wszystkie doświadczenia, doprowadziły pod koniec XIII w do opracowania spójnej teorii, ostatecznie uformowanej przez Dietricha z Fryburga, która poprawnie opisywała zjawisko powstawania tęczy.

Badani nad powstawaniem tęczy prowadził także Kartezjusz. Swoje wyjaśnienia opublikował w swoim traktacie z 1967 roku. Jego analiza opierała się przede wszystkim na doświadczalnych obserwacjach. Kartezjusz wykreślał bowiem precyzyjnie bieg promieni słonecznych po przejściu przez kroplę. Zauważył, iż najbardziej kolorowa i jaskrawa tęcza powstaje, gdy światło ulega pojedynczemu odbiciu wewnątrz kropli. Przy opracowywaniu swoich doświadczeń Kartezjusz musiał znać naturę odbicia i załamania się światła przy przejściu prze granicę dwóch ośrodków.

13

Page 14: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Analiza metodologiczna

Inspiracje do badań:

Wykorzystane metody/ przyrządy naukowe:

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie badań/eksperymentu dla nauki

Istota barw

Analizowanie zjawiska pozornie prostego – Izaak Newton

Eksperyment Newtona (lata 1665–1666) – rozszczepienie światła za pomocą pryzmatu

14

Page 15: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Światło białe rozszczepione w pryzmacie w spektrum optyczne

Spektrum światła białego

Światło białe, które po przejściu przez pryzmat rozszczepia się na różne kolory, można z powrotem złożyć (np. za pomocą pryzmatu lub luster) w światło białe. Na ten fakt zwrócił uwagę po raz pierwszy Isaac Newton w swoich opublikowanych notatkach pt. On Colour (O kolorach), które później rozwinął w większe dzieło pt. Optics (Optyka). Praca ta była zarzewiem gorących dyskusji dotyczących natury światła, a nawet personalnych kłótni i niesnasek w świecie naukowym tamtych czasów. Tym niemniej większość z tych, którzy widzieli na własne oczy rozszczepienie światła (czy to na pryzmacie, czy też w naturze, np. tęczę) przyznaje, że jest to zjawisko nad wyraz piękne i malownicze.

Newton w latach 1670 - 1672 badał załamanie (refrakcję) światła, pokazując, że w pryzmacie można rozszczepić białe światło w widmo barw, a następnie z kolorowego widma ponownie uzyskać białe światło przy pomocy soczewki i drugiego pryzmatu.

Na tej podstawie wywnioskował, że każdy refraktor (teleskop soczewkowy) będzie posiadał wadę polegającą na rozszczepieniu światła (aberracja chromatyczna). Aby tego problemu uniknąć zaprojektował własny typ teleskopu wykorzystujący zwierciadło zamiast soczewki, znany później jako teleskop Newtona (teleskop zwierciadlany). W 1671 Royal Society poprosiło go o demonstrację teleskopu zwierciadlanego. Zachęciło to Newtona do opublikowania notatek pt. On Colour, które później rozwinął w większe dzieło pt. Optics. („Optyka”).

Newton twierdził, że światło składa się z cząstek. Późniejsi fizycy przychylili się bardziej do falowej natury światła, ponieważ znalazła ona potwierdzenie w eksperymentach (np. słynny eksperyment z dwoma szczelinami Thomasa Younga z 1801 roku). Obecnie mechanika kwantowa uznaje dualizm korpuskularno-falowy, jakkolwiek fotony mają bardzo mało wspólnego z Newtonowskimi cząstkami światła (np. załamanie tłumaczył Newton tym, że na cząstki światła działa siła pochodząca od materii i działająca tylko w jej sąsiedztwie).

15

Page 16: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Opublikowana w 1672 r. pierwsza praca Newtona New Theory about Light and Colors („Nowa teoria światła i barw”) zawierała wyniki badań dotyczące dyspersji światła oraz odkrycie, że światło białe jest mieszaniną różnych barw, z których każda ma ściśle określony współczynnik załamania. W odpowiedzi na ostrą krytykę ze strony m.in. Ch. Huygensa i R. Hooke’a, Newton zaproponował teorię korpuskularną (emisyjną) światła, zgodnie z którą światło miało się składać z korpuskuł światła emitowanych przez świecące ciała i wywołujących w eterze drgania różnej długości, odpowiadające różnym barwom.

Wszystkie swoje doświadczenia i poglądy na temat światła zebrał Newton w wydanym 1704 dziele Optics. Omówił tam szczegółowo doświadczenia dotyczące optyki geometrycznej, zjawisk odbicia, załamania i dyspersji światła oraz właściwości światła białego, interferencji światła w cienkich warstwach, dyfrakcji i polaryzacji. Dzieło to kończy tzw. 31pytań, zawierających przemyślenia Newtona na różne tematy astronomii, fizyki i chemii. Zadziwiają one głębią i dalekowzrocznością spojrzenia na przyrodę; znajdują się tam m.in., potwierdzone obecnie, przypuszczenia na temat hierarchii elementarnych składników materii i ich oddziaływań.

16

Page 17: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

2 pryzmaty, soczewka

Zastosowane procedury badawcze:

metoda ilościowa w eksperymentach

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie badań/eksperymentu dla nauki

17

Page 18: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Prędkość światła – teoria i empiryczny pomiar

Prędkość światła w zależności od kontekstu może oznaczać:

- prędkość fali elektromagnetycznej w próżni i wynikającą z tego stałą fizyczną (c = 299 792 458 m/s),

- prędkość światła w ośrodkach materialnych.

Prędkość światła w próżni

Prędkość rozchodzenia się fali elektromagnetycznej w próżni nie zależy od częstości fali ani układu odniesienia. Stałość tej prędkości wynika z podstawowych własności przestrzeni i dlatego w fizyce określa się stałą c o nazwie prędkość światła.

W elektrodynamice klasycznej prędkość światła jest konsekwencją równań Maxwella. Rozwiązanie tych równań dla pola elektromagnetycznego w próżni prowadzi do równania falowego, w którym pojawia się stała będąca prędkością fazową fali elektromagnetycznej, czyli prędkość światła w próżni. Jest to stała fundamentalna związana z własnościami próżni, m.in. z przenikalnością elektryczną  i przenikalnością magnetyczną.

James Clerk Maxwell wykazał (około 1856 roku), że konsekwencją równań elektrodynamiki jest istnienie fali elektromagnetycznej propagującej się z prędkością:

cm = 1/ √ εμ, gdzie:

ε – przenikalność elektryczna ośrodka,μ – przenikalność magnetyczna ośrodka,cm – prędkość światła w danym ośrodku.

W przypadku próżni

cm = 1/ √ ε0 μ0

gdzie:

ε0 – przenikalność elektryczna próżni,μ0 – przenikalność magnetyczna próżni.

Eksperymentalnie zostało to potwierdzone przez Heinricha Hertza kilkadziesiąt lat później. To, że fala elektromagnetyczna propaguje się (rozprzestrzenia) z prędkością c jest konsekwencją bezmasowości fotonu (masa spoczynkowa fotonu jest równa zeru).

W szczególnej teorii względności stała ta wynika ze związku między czasem a przestrzenią w transformacji Lorentza i pojawia się w fizyce w wielu prawach i związkach, np.:

- stanowi ona prędkość graniczną rozchodzenia się energii w szczególnej teorii względności.

18

Page 19: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

- E = mc2

Standaryzacja

Po zatwierdzeniu przez Generalną Konferencję Miar i Wag w 1983 definicji metra jako odległości jaką pokonuje światło w próżni w czasie 1 / 299792458 s prędkość światła w próżni stała się wzorcem i wynosi dokładnie 299 792 458 m/s. W mniej dokładnych obliczeniach często używa się przybliżonej wartości tej prędkości 3·108 m/s.

Prędkość światła w ośrodkach materialnych

Prędkość rozchodzenia się fali elektromagnetycznej zależy od ośrodka, w jakim porusza się ta fala i osiąga wielkość maksymalną w próżni. W odróżnieniu np. od dźwięku, fala elektromagnetyczna do propagacji nie potrzebuje ośrodka materialnego. Hipotetyczny ośrodek, w którym miałaby się rozchodzić fala elektromagnetyczna, nazywano eterem. Doświadczenia Michelsona-Morleya pokazały jednoznacznie, że eter statyczny lub częściowo wleczony nie istnieje. Inne doświadczenia wykluczyły też alternatywne hipotezy eteru.

Obiekty posiadające niezerową masę spoczynkową nie mogą osiągnąć prędkości światła w próżni, choć mogą się do niej dowolnie zbliżyć. Obiekty takie, jeżeli mają niezerowy ładunek elektryczny i poruszają się w ośrodku materialnym z prędkością większą od prędkości światła w tym ośrodku emitują fotony zwane promieniowaniem Czerenkowa.

W najnowszych eksperymentach nad rozchodzeniem się światła w ośrodkach materialnych udało się spowolnić je do prędkości 0,2 mm/s. Spowolnienie osiągnięto w warunkach laboratoryjnych, poprzez dynamiczną zmianę własności fizycznych ośrodka, w którym rozchodziła się wiązka światła.

Według mechaniki klasycznej fala elektromagnetyczna przechodząc przez ośrodek pobudza do drgań ładunki elektryczne w nim zawarte, co zmniejsza jej amplitudę. Pobudzone ładunki wracając do stanu równowagi emitują falę, ale jest ona opóźniona w stosunku do fali pobudzającej. W wyniku czego obserwuje się zmniejszenie prędkości fali elektromagnetycznej.

Pomiar

19

Page 20: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Zaćmienia księżyców Jowisza obserwowane przez Rømera w 1676. Pozwoliły wyznaczyć czas przelotu światła przez orbitę ziemską. Na tej podstawie Christiaan Huygens podał pierwsze oszacowania prędkości światła (w próżni i w powietrzu).

Aberracja światła odkryta przez Bradleya w 1728. Była pierwszym koronnym dowodem, że prędkość światła w próżni jest ograniczona.

20

Page 21: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Pierwszego pomiaru prędkości światła planował dokonać Galileusz. Eksperyment postanowił przeprowadzić wraz ze swoim pomocnikiem za miastem na dwóch wzgórzach, mając do dyspozycji dwie latarnie. Sama próba polegała na odsłanianiu i przesłanianiu latarni, jednak ze względu na ogromną prędkość światła i bardzo duży błąd pomiaru, skazana była na niepowodzenie. Galileusz oszacować mógł jedynie, że prędkość ta znacznie przekracza, w przeliczeniu na obecne jednostki, 30 km/s (co jest bliskie orbitalnej prędkości Ziemi w ruchu dokoła Słońca)

W 1676 duński astronom Ole Rømer podał pierwsze dowody skończonej prędkości światła i czasu jego przelotu przez orbitę ziemską. Obliczenia oparł na obserwacji zaćmień satelity Jowisza przez tę planetę. Przy oddalaniu się Jowisza od Ziemi, zaćmienia Io były rzadziej niż przy zbliżaniu się Jowisza do Ziemi. Rømer, pomimo znajomości promienia orbity ziemskiej, nie podał liczbowej wartości prędkości światła. Zrobił to dopiero Christiaan Huygens, ale jego wynik bywa błędnie przypisywany Rømerowi. Wynik obserwacji Rømera nie przekonał wszystkich uczonych, że prędkość światła jest skończona. Koronnym dowodem była dopiero aberracja gwiazdowa.

W 1727 angielski astronom James Bradley dokonał pomiaru wykorzystując zjawisko aberracji światła gwiazd. Z ilorazu prędkości orbitalnej Ziemi i kąta aberracji uzyskał, w przeliczeniu na dzisiejsze jednostki, 301 000 km/s.

Pierwszego laboratoryjnego pomiaru prędkości światła dokonał w 1849 roku francuski fizyk Armand Fizeau używając zwierciadła i koła zębatego. Doświadczenie to można uznać za modyfikację metody zaproponowanej przez Galileusza przez zastąpienie drugiego obserwatora lustrem). Otrzymany wynik 315 300 km/s obarczony był błędem systematycznym. Metodę tę udoskonalano zwiększając odległość oraz liczbę zębów – w 1874 francuski fizyk Alfred Maria Cornu (1841–1902) uzyskał 300 030 ± 200 km/s, w 1902 Perrotin 299 880 ± 84 km/s.

Dokładniejszą metodą jest metoda wirującego zwierciadła zaproponowana w 1838 przez François Arago, zastosowana po raz pierwszy przez Jeana Foucault w 1850, w 1862 uzyskał on wynik 298 000 ± 500 km/s, w 1882 Simon Newcomb ustalił tą metodą 299 810 ± 30 km/s.

Metody pomiaru prędkości światła były stale rozwijane, czego efektem był wzrost dokładności pomiaru. W 1907 roku Albert Abraham Michelson otrzymał Nagrodę Nobla m.in. za bardzo dokładne pomiary prędkości światła, prowadzone od 1878. W 1880 uzyskał wynik 299 910 ± 50 km/s, w latach 1924–1926, dzięki aparaturze ustawionej na szczytach górskich Mount Wilson i Mount San Antonio odległych o 35 km, 299 796 ± 4 km/s zbliżony do przyjmowanego obecnie.

W późniejszych pomiarach metody mechaniczne zastąpione zostały przez elektryczno-optyczne przy wykorzystaniu zjawiska Kerra. Przy mierzeniu prędkości fal radiowych wykorzystywane są metody rezonatora wnękowego.

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

Zastosowane procedury badawcze:

21

Page 22: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

- Wynik badań/eksperymentu

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie badań/eksperymentu dla nauki

Prawo swobodnego spadania

Odkrywanie praw metodą indukcji – Galileusz

22

Page 23: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Grawitacyjna zasada Galileusza – inaczej zwana prawem swobodnego spadania ciał w polu grawitacyjnym, odkryta przez Galileusza w 1602 r. Głosi, że:

W jednorodnym polu grawitacyjnym przy braku innych sił (takich jak tarcie) wszystkie ciała spadają z jednakowym przyspieszeniem.

Zasada ta nie jest spełniona w przypadku istnienia np. oporu powietrza i dlatego w powietrzu piórko spada wolniej niż metalowa kula.

Krytyczna analiza zasady Arystotelesa

23

Page 24: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Galileusz doszedł do tej zasady sprowadzając wcześniej do sprzeczności obowiązującą dotąd zasadę sformułowaną przez Arystotelesa. Głosiła ona, że ciała o większej masie spadają z większym przyspieszeniem. Rozumowanie Galileusza było następujące:

Rozważmy dwa ciała o masach M i m, gdzie M jest większe od m. Stosując zasadę Arystotelesa wnioskujemy, że ciało o masie M spadnie na ziemię szybciej niż ciało o masie m. Rozważmy zatem ciało, które składa się z połączenia obu wspomnianych ciał, ma ono zatem masę M+m, która jest większa od każdej z mas M i m. Ponieważ ciało to składa się z obydwu ciał, które spadają z różnym przyśpieszeniem to ciało o masie M będzie hamowane przez ciało o masie m, a ciało o masie m będzie przyspieszane przez ciało o masie M. Znaczy to, że połączone ciała spadną szybciej od pojedynczego ciała o masie m, ale wolniej niż pojedyncze ciało o masie M. To jednak jest sprzeczne z wyjściową zasadą, wedle której ciało połączone o masie M+m powinno spaść szybciej niż ciało o masie M.

Jedynym sposobem uniknięcia sprzeczności jest przyjęcie, że jeśli czas spadania ciał zależy jedynie od masy tego ciała, to niezależnie od tej masy ciało uderzy w ziemię po tym samym czasie. Spada zatem zawsze z takim samym przyspieszeniem.

Eksperyment Galileusza (rok 1600) – spadek swobodny ciał o różnej masie

24

Page 25: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Turyści obserwujący Galileusza zrzucającego kule z Krzywej Wieży w Pizie (fotomontaż ilustrujący eksperyment)

Arystoteles twierdził, że ciało spada na ziemię tym szybciej, im jest cięższe. Aż do późnych lat XVI wieku było to bardzo popularne mniemanie. Może nam to uzmysłowić, jak bardzo zaniedbywano w okresie średniowiecza fizykę doświadczalną, skoro nadal opierano się na błędnej w tym wypadku wiedzy starożytnych Greków (klasycyzm – powtarzana była teoria, lecz bez empirycznej weryfikacji). Dopiero Galileusz przeciwstawił się temu twierdzeniu, stawiając na szali cały swój autorytet i stanowisko dziekana katedry matematyki  na Uniwersytecie w Pizie.

Zrobił to w następujący sposób: zrzucał kule o różnych masach z Krzywej Wieży w Pizie i mierzył czas ich spadania. Jednocześnie upuścił z wieży dwie kule: ciężką kulę armatnią o masie 8 kg i lżejszą kulkę muszkietową o masie 20 g. Oba ciała (które miały podobną formę) dosięgnęły ziemi w tym samym momencie.

Udowodnił więc, że czas ich opadania jest taki sam (przy zaniedbaniu nieznacznego w tym przypadku efektu wynikłego z oporu powietrza). Dowód ten stanowi jedną z podwalin mechaniki klasycznej.

Eksperyment Galileusza (rok 1600) – obserwacja ruchu ciał staczających się z równi pochyłej

Strona z pracy Galileusza O prawach spadania ciał

Jakkolwiek prawdziwość eksperymentu ze spadającymi kulami z Krzywej Wieży w Pizie (o którym wzmianka pojawiła się po raz pierwszy w pracy jego ucznia Vincenzo Viviani) jest obecnie podawana przez niektórych uczonych i historyków w wątpliwość, to nikt nie wątpi w to, że Galileusz wykorzystał kule toczące się w dół na równi pochyłej w celu badania ich prędkości i przyspieszenia.

25

Page 26: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Jego równia składała się z blatu (o długość 20 kubitów i szerokość połowy kubita, czyli ok. 6 m na 15 cm), który pośrodku miał precyzyjnie nacięty rowek. Galileusz pochylił blat tak, że utworzył on równię pochyłą i staczał po nim mosiężne kule. Jednocześnie mierzył czas ich toczenia za pomocą zegara wodnego – dużego naczynia z wodą, która wypływała przez cienką rurkę. Za każdym razem ważył wodę, która wypłynęła z naczynia i porównywał wyniki z przebytym przez kulę dystansem.

Równia pochyła

Arystoteles błędnie przypuszczał, że prędkość toczącej się kuli powinna być stała. Jeśli podwoimy czas toczenia się, to kula powinna przebyć dwa razy dłuższą drogę. Galileusz za pomocą tego eksperymentu obalił to twierdzenie. W rzeczywistości przy podwojeniu czasu toczenia kula przebyła drogę cztery razy dłuższą. Droga ta jest wprost proporcjonalna do kwadratu czasu. A powodem tego jest przyspieszenie wnoszone przez grawitację.

26

Page 27: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Oba eksperymenty (ze zrzucaniem kul z wieży i z toczeniem ich na równi pochyłej) dowodziły tej samej rzeczy: spadające lub toczące się obiekty (toczenie się jest wolniejszą wersją spadania tak długo, jak rozłożenie masy w obiekcie jest takie samo) zwiększają prędkość niezależnie od ich masy. Było to jak na wiek XVII rewolucyjne stwierdzenie.

Swobodny spadek w pobliżu powierzchni ZiemiJeżeli spadek ma miejsce z małej wysokości w pobliżu powierzchni Ziemi i dotyczy ciała o stosunkowo dużej gęstości i aerodynamicznym kształcie (np. kuli), wówczas ruch takiego ciała można z dobrym przybliżeniem traktować jak ruch jednostajnie przyspieszony z przyspieszeniem ziemskim g bez prędkości początkowej. Ruch ten opisuje kinematyczne równanie ruchu w postaci:

gdzie

h0 – wysokość z jakiej spada ciało

t – czas

Analiza metodologiczna

Inspiracje do badań:

Wykorzystane metody/ przyrządy naukowe:

eksperyment ze spadającymi kulami rynna (Galileusza)

Zastosowane procedury badawcze:

pomiary ilościowe

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu i analizy matematycznej

Wkład w rozwój terminologii i praw badanej dyscypliny

27

Page 28: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Znaczenie badań/eksperymentu dla nauki

Współczesne ujęcie wyniku badań/eksperymentu

Eksperyment Cavendisha

Wyznaczenie stałej grawitacji G za pomocą wagi skręceń (rok 1798)

Rysunek sporządzony przez Cavendisha; przedstawia jego wagę skręceń zbudowaną wewnątrz budynku

Jedno z ramion (m) wagi, duża kula (W), mała kulka (x) oraz obudowanie izolujące (ABCDE.

Może być pewnym zaskoczeniem, że wartość jednej z fundamentalnych stałych naszego świata – stałej grawitacji G jest jedną z najgorzej poznanych wartości fizycznych. Z najnowszych badań przeprowadzonych w roku 2000 przez H. Gundlacha i Stephena M. Merkowitza z Uniwersytetu Waszyngtońskiego w Seattle wynika, że wynosi ona 6,6742x10−11 Nm²/kg² przy maksymalnym błędzie pomiaru szacowanym na 0,0014% tej wartości („Physical Review Letters”, t. 85, nr 14, 2000). Pomiary te zwiększyły dokładność znajomości stałej G o jeden rząd wielkości, czyli o jedną cyfrę znaczącą na końcu wyniku. Do tej pory opieraliśmy się na wartości wielkości stałej G zmierzonej w roku 1798 przez angielskiego uczonego Henry’ego Cavendisha.

28

Page 29: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Trzy uniwersalne prawa ruchu i prawo powszechnego ciążenia sformułował Sir Isaac Newton w dziele Philosophiae Naturalis Principia Mathematica (Matematyczne podstawy filozofii naturalnej, bardziej znane dzisiaj jako Principia). Jako pierwszy oszacował on także stałą G.

Cavendish sądził, że jest w stanie podać ją z większą dokładnością niż Newton. Brakowało mu jedynie odpowiedniego przyrządu, który mógłby dowieść, że wszystkie ciała przyciągają się wzajemnie niezależnie od grawitacji Ziemi.

Eksperymenty, które doprowadziły do wyznaczenia stałej G, a jednocześnie do zmierzenia masy Ziemi, przeprowadzał on w latach 1797–1798. Użył przyrządu i oparł się na metodzie opisanej przez Johna Michella, który zmarł przed ukończeniem swoich badań. Aparat zwany wagą skręceń składał się z cienkiej nici kwarcowej, na której zawieszony był lekki pręt. Na końcach pręta zawieszone były małe kule. Do nici było przymocowane lusterko. Aparat wykorzystywał fakt, że siła potrzebna do skręcenia nici jest bardzo mała, a wiązka światła padająca i odbijająca się od lusterka i padająca następnie na skalę mogła precyzyjnie wyznaczyć kąt skrętu.

Waga skręceń w kształcie słoja

Cavendish umieścił następnie w pobliżu małych kulek (na pręcie) symetrycznie dwie duże kule ołowiane (o znanych masach, dokładnie po 350 funtów każda) i zmierzył kąt skrętu, o jaki obrócił się pręt. Na podstawie tych pomiarów obliczył wartość stałej G.

Późniejsi autorzy przekształcili jego wyniki do formy współczesnej, gdzie:

G = g x RxR Ziemi/ M Ziemi = 3g/ 4π R Ziemi x ρ Ziemi

Po przejściu na jednostki SI i podstawieniu gęstości Ziemi wyznaczonej przez Cavendisha 5,448 g cm−3 otrzymujemy

G = 6.74 × 10−11 m³ kg−1 s−2

co różni się tylko o 1% obecnie stosowanej wartości: 6,67408 × 10−11 m³ kg−1 s−2.

29

Page 30: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Jednakże fizycy często stosują jednostki, w których stała grawitacyjna przyjmuje inną postać. Wśród stałych astronomicznych zastosowanie znajdowała stała grawitacyjna Gaussa (k), zaproponowana przez Gaussa w Theoria motus corporum coelestium in sectionibus conicis solem ambientum („Teoria ruchu ciał niebieskich poruszających się po krzywych stożkowych wokół Słońca”) z 1809 roku, a porzucona w 2012 roku, kiedy to Międzynarodowa Unia Astronomiczna przestała jej używać. Wiązała się ona z jednostką astronomiczną, w związku z czym eksperyment Cavendisha można uznać za jej pomiar. W czasach Cavendisha fizycy stosowali te same jednostki dla masy i ciążenia. W efekcie, biorąc g jako przyspieszenie standardowe przy R Ziemi, które było znane, ρ Ziemi pełniło rolę odwrotności stałej grawitacyjnej. Z uwagi na to, gęstość Ziemi była mocno poszukiwaną wartością w tamtych czasach, co potwierdzają również wcześniejsze próby jej wyznaczenia np. eksperyment Schiehallion z 1774 roku.

Dlatego też, w ogólności, fizycy przypisują Cavendishowi zasługi, że to on jako pierwszy zmierzył wartość stałej grawitacji.

Póżniej eksperyment ten był znany także pod nazwą „ważenie Ziemi”, ponieważ znając precyzyjnie stałą grawitacji G, można z prawa powszechnego ciążenia wyznaczyć z równą dokładnością masę Ziemi.

Cavendish podał także tę masę, a niejako „z rozpędu” obliczył masy Słońca, Jowisza i innych planet, których satelity były znane w tamtych czasach.

Najnowsze obliczenia stałej G informują, że masa Ziemi wynosi 5,9722450 × 1024 kg (która to wartość różni się tylko o 1% od wartości obliczonej przez Cavendisha), zaś Słońca 1,9884350 × 1030 kg.

Waga skręceń, zwana także wagą Cavendisha, mimo upływu lat nie zmieniła znacząco swojego wyglądu i budowy i nadal jest wykorzystywana w laboratoriach i uczelniach całego świata do wyznaczania stałej grawitacji G.

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

waga skręceń

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Znaczenie badań/eksperymentu dla nauki

30

Page 31: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Badanie ruchu Ziemi względem eteru

Gdy eksperyment nie daje oczekiwanego wyniku … – doświadczenie Michelsona-Morleya 

Albert Abraham Michelson (1852 - 1931) – amerykański fizyk, laureat Nagrody Nobla z dziedziny fizyki w 1907 za konstrukcję interferometru. Albert Michelson urodził się w Strzelnie na Kujawach w rodzinie żydowskiego kupca.

31

Page 32: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Doświadczenie Michelsona-Morleya – eksperyment zaliczany do najważniejszych doświadczeń w historii fizyki. Miał na celu wykazanie ruchu Ziemi względem hipotetycznego eteru poprzez porównanie prędkości światła w różnych kierunkach względem kierunku ruchu Ziemi. Doświadczenie zostało przeprowadzone po raz pierwszy w 1881 roku przez Alberta Abrahama Michelsona i powtórzone przez niego wraz z Edwardem Morleyem w roku 1887.

Wykazało ono niezależność prędkości światła od prędkości Ziemi w przestrzeni, co stało się doświadczalnym potwierdzeniem stałości prędkości światła w każdym układzie odniesienia i ostatecznie wykluczyło istnienie eteru.

Fizyka w XIX w. zakładała, że fale rozprzestrzeniają się tylko w ośrodkach sprężystych (przykładowo dźwięk – w powietrzu). Według tej koncepcji, światło, jako fala elektromagnetyczna, też powinno rozprzestrzeniać się w jakimś sprężystym ośrodku, który nazywano eterem. Eter miałby wypełniać całą przestrzeń, pozostawać w spoczynku względem Wszechświata i wyznaczać absolutny układ odniesienia. Prędkość światła powinna być stała względem tego ośrodka, a dla obserwatorów poruszających względem eteru – inna i równa różnicy wektorowej prędkości światła w ośrodku i prędkości obserwatora względem ośrodka.

Ziemia wraz ze Słońcem porusza się względem Wszechświata, a na to nakłada się jej ruch wokół Słońca z prędkością 30 km/s, zatem (hipoteza):

Ziemia powinna poruszać się względem eteru.

Ponieważ nasza planeta okrąża Słońce z prędkością ok. 30 km/s, to powinien dać się zauważyć efekt zmiany prędkości światła względem Ziemi, a to dzięki porównaniu sytuacji, w których: (a) światło porusza się zgodnie z ruchem Ziemi, oraz (b) światło porusza się przeciwnie do ruchu Ziemi.

32

Page 33: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Hipoteza eksperymentalna

Wyemitowane ze źródła w eter światło powinno poruszać się wolniej, gdy Ziemia porusza się zgodnie z ruchem eteru (prędkości się odejmują, bo Ziemia goni światło), a szybciej, gdy porusza się przeciwnie (prędkości się dodają, bo Ziemia dodatkowo ucieka od światła).

Pierwsze doświadczenie: Michelsona-Morleya 

Ilustracja doświadczenia Michelsona-Morleya

A - źródło światła monochromatycznegoB - półprzepuszczalna płytkaC - zwierciadłaD - ekran

James Clerk Maxwell zauważył, że mierząc prędkość światła w różnych porach roku lub doby można by wyznaczyć prędkość ruchu Ziemi względem eteru, ale nie wierzył w możliwość wykonania doświadczenia z wystarczająco dużą dokładnością.

Doświadczenie weryfikujące koncepcję Maxwella obmyślił i przeprowadził w 1881 roku Albert Michelson. Uznał, że do określenia prędkości wiatru eteru nie potrzeba wyznaczać prędkości światła, wystarczy porównać prędkość światła w różnych kierunkach. Skonstruował przyrząd nazwany później interferometrem Michelsona.

33

Page 34: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Interferometr Michelsona

W interferometrze wiązka światła zostaje podzielona półprzezroczystą płytką na dwie prostopadłe wiązki, które po odbiciu od zwierciadeł i powtórnym przejściu przez płytkę trafiają do teleskopu, w którym widać jasne i ciemne prążki - wynik interferencji obu wiązek. Obraz interferencji zależy od różnicy czasu przebiegu obu wiązek między płytką a zwierciadłami, bo w pozostałej części drogi światła obie wiązki biegną tą samą drogą. Gdyby czas przebycia światła między płytką a pierwszym zwierciadłem zmienił się, tj. był inny niż czas dla drugiej drogi (między płytką a drugim zwierciadłem), to układ prążków interferencyjnych przesunąłby się. W ten sposób można wyznaczyć nawet niewielkie różnice w prędkości rozchodzenia się światła.

Gdyby istniał wiatr eteru, wystarczyłoby obrócić interferometr, a układ prążków powinien przesuwać się. Michelson, jako dokładny obserwator, oszacował, że dokładność pomiaru urządzenia jest 4 - razy większa od przesunięcia prążków, jakie powinien uzyskać dla prędkości ruchu Ziemi wokół Słońca.

Ku swojemu zaskoczeniu nie wykrył ruchu prążków. Wynik doświadczenia był tak zdumiewający dla ówczesnych fizyków, że powszechnie wątpiono w prawdziwość i dokładność pomiaru.

Drugie doświadczenie: Michelsona-Morleya 

Dla potwierdzenia swoich obserwacji Michelson postanowił powtórzyć swoje doświadczenie. Wraz z Edwardem Morleyem opracowali i skonstruowali aparaturę, w której zwiększyli dziesięciokrotnie długość drogi światła, zwiększając w ten sposób dokładność pomiaru. By zapobiec nawet najmniejszym drganiom zwierciadeł, układ interferometru pływał w korytach

34

Page 35: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

wypełnionych rtęcią. Pomimo takiej precyzji i przeprowadzenia wielu powtórzeń pomiarów w wielu kierunkach, przez rok nie zauważono zmian w układzie prążków interferencyjnych.

Na początku XX w. doświadczenie było wielokrotnie powtarzane w różnych warunkach i zawsze z takim samym skutkiem.

Wyjaśnienia wyniku eksperymentu

A) W ramach koncepcji eteru

1) Jedną z hipotez wyjaśniających przedstawił Hendrik Antoon Lorentz. Wedle niej ruch ciał względem eteru skraca długość ciała o czynnik:

 

gdzie v – prędkość ciała

c – prędkość światła

Rozwinięcie tej koncepcji znane jest obecnie jako transformacja Lorentza.

2) Wynik eksperymentu próbowano wyjaśnić założeniem, że eter w pobliżu Ziemi jest przez nią unoszony, w efekcie czego jest nieruchomy względem niej, podczas gdy dalej od niej pozostaje ruchomy. Jednak takie zachowanie eteru powinno spowodować charakterystyczne krążenie gwiazd widzianych z Ziemi po elipsach, czego nie obserwuje się.

B) Poza koncepcją eteru

Eksperyment, wykazując brak wpływu ruchu obrotowego i orbitalnego Ziemi na prędkość światła, miał doniosłe znaczenie dla szczególnej teorii względności. Negatywny wynik badania stał się doświadczalną podstawą teorii względności.

Ostatecznie zrezygnowano więc z wyjaśnienia doświadczenia Michelsona-Morleya na gruncie koncepcji eteru. Koncepcja ta okazała się bowiem pozbawiona fizycznych podstaw. Jest ono natomiast zgodne z ogłoszoną przez A. Einsteina w 1905 roku szczególną teorią względności, według której prędkość światła w próżni jest jednakowa we wszystkich inercjalnych układach odniesienia.

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

- interferometr Michelsona

35

Page 36: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

- ulepszony interferometr (drugie doświadczenie)

Zastosowane procedury badawcze:

- wielokrotne powtórzenie eksperymentu

- przeprowadzenie eksperymentu w różnych warunkach (wiele kierunków)

- dokładne pomiary

- bardzo wysoka precyzja pomiarów (drugie doświadczenie)

Logiczna analiza eksperymentu/ zastosowane rozumowania

- metodologiczne prawo weryfikacji hipotez

- mpp

- Wynik eksperymentu

- koncepcja eteru - pozbawiona fizycznych podstaw (niefalsyfikowana)

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie badań/eksperymentu dla nauki

- doświadczalna podstawa szczególnej teorii względności

Badania nad magnetyzmem i elektrycznością

MagnetyzmMagnetyzm – zespół zjawisk fizycznych związanych z polem magnetycznym, które może być wytwarzane zarówno przez prąd elektryczny, jak i przez materiały magnetyczne.

W skali makroskopowej

36

Page 37: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Siły magnetyczne są jednymi z podstawowych sił w naturze. Oddziaływania magnetyczne odbywają się za pośrednictwem pola magnetycznego, które w skali makroskopowej wytwarzane jest na skutek ruchu ładunków elektrycznych lub prądu elektrycznego. Stały prąd elektryczny wywołuje statyczne pole magnetyczne, natomiast zmienny prąd elektryczny powoduje powstanie nierozerwalnie związanego z nim zmiennego pola magnetycznego i elektrycznego (takie podwójne pole nosi nazwę pola elektromagnetycznego).

Magnetyzm makroskopowy jest przyczyną istnienia ziemskiego pola magnetycznego. We wnętrzu Ziemi istnieje roztopione jądro, w którym występują prądy konwekcyjne. Prądy takie unoszą ze sobą olbrzymie ilości wolnych elektronów, które są równoważne z prądem elektrycznym, który z kolei (jak opisano powyżej) skutkuje powstaniem otaczającego pola magnetycznego.

W skali makroskopowej powstawanie i zachowanie pola magnetycznego oraz sił z nim związanych opisane są równaniami Maxwella oraz prawem Biota-Savarta.

W skali mikroskopowej

W skali mikroskopowej pole magnetyczne powstaje głównie na skutek ruchu elektronów: orbitalnego oraz obrotowego (tzw. spin), przy czym ten ostatni jest efektem dominującym. Ruch orbitalny elektronu (dookoła jądra atomowego) jest efektem wtórnym i tylko nieznacznie modyfikuje spinowe pole magnetyczne. W niewielkim stopniu pole magnetyczne wytwarzane jest również przez moment magnetyczny protonów i neutronów.

Wypadkowy moment magnetyczny atomu jest sumą wszystkich momentów magnetycznych elektronów (a także w bardzo niewielkim, zazwyczaj pomijanym stopniu również i protonów i neutronów). Z uwagi na dążenie w przyrodzie do minimalnego stanu energetycznego pojedyncze momenty magnetyczne elektronów mają tendencję do ustawiania się w przeciwnych kierunkach (zarówno momenty orbitalne jak i spinowe) czym powodują znoszenie udziału magnetycznego takich sparowanych elektronów. Dlatego też, dla atomu z całkowicie wypełnionymi powłokami i podpowłokami elektronowymi wewnętrzne magnetyczne momenty znoszą się całkowicie. Tylko atomy z częściowo wypełnionymi powłokami elektronowymi posiadają wypadkowy moment magnetyczny, którego wartość zależy głównie od ilości niesparowanych elektronów. I tak:

- W materiałach diamagnetycznych wszystkie elektrony w atomie są sparowane, wobec czego atom nie wykazuje zewnętrznego momentu magnetycznego. Tak samo zachowuje się ciało złożone z diamagnetycznych atomów. Diamagnetyki nieznacznie osłabiają zewnętrzne pole magnetyczne.

- Paramagnetyki z kolei posiadają co najmniej jeden niesparowany elektron, który skutkuje zewnętrznym momentem magnetycznym dla danego atomu. Jednakże uporządkowanie takich elementarnych momentów w materiale paramagnetycznym jest chaotyczne, co prowadzi do zerowego wypadkowego momentu dla całego ciała. Paramagnetyki nieznacznie wzmacniają zewnętrzne pole magnetyczne, ponieważ poszczególne momenty magnetyczne dążą do ustawienia się wzdłuż linii takiego pola. Teoretycznie przy bardzo dużych polach powinno nastąpić nasycenie magnetyczne materiału paramagnetycznego. Niemniej obecnie nie udało się tego jednoznacznie potwierdzić nawet w polach magnetycznych o bardzo dużej wartości (np. 100 T – zobacz opis ferromagnetyków poniżej).

- Jeśli chodzi o ferromagnetyzm, to co prawda występuje on tylko dla określonych pierwiastków i związków chemicznych, jednak ferromagnetyzm jest zjawiskiem jakie występuje dla całej grupy atomów z uwagi na tzw. oddziaływania wymienne pomiędzy

37

Page 38: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

sąsiednimi atomami. W ferromagnetykach występuje zjawisko nasycenia magnetycznego – występuje ono w chwili kiedy wszystkie elementarne dipole magnetyczne ustawią się w kierunku zewnętrznego pola magnetycznego. Najwyższa znana polaryzacja nasycenia 2,3 T istnieje dla stopu VACODUR Co(49%)Fe(48%)V(1,9%).

Dlatego też, różnice w konfiguracji elektronowej w różnych pierwiastkach chemicznych determinują wielkość i typ atomowych momentów magnetycznych, które z kolei determinują własności magnetyczne wszystkich materiałów (różne typy magnetyzmów).

Magnetyzm

Elektryczność (od gr. ήλεκτρον, elektron – bursztyn) – ogólna nazwa zjawisk związanych z oddziaływaniem ciał mających ładunek elektryczny (na przykład elektronów i protonów) oraz z przepływem tych ładunków (prądem elektrycznym). W fizyce elektryczność obejmuje elektrostatykę, elektrodynamikę i prąd elektryczny. Można wyróżnić elektryczność naturalną, np. atmosferyczną oraz elektryczność związaną z techniką.

Potocznie elektryczność jest kojarzona przede wszystkim z instalacją elektroenergetyczną.

Historia badań nad elektrycznością

Od Starożytności do XIX wieku

Starożytni Grecy poznali pierwsze zjawiska elektrostatyki. Zauważyli, że pocierając bursztyn (gr. elektron – ηλεκτρον) kawałkiem futra, nadają temu kamieniowi zdolność przyciągania drobnych i lekkich przedmiotów, takich jak pyłki czy włosy.

Elektryczność jest tematem naukowego zainteresowania od co najmniej wczesnych lat XVII w.

- Prawdopodobnie pierwszym elektrotechnikiem był William Gilbert, który wynalazł versorium: przyrząd, który wykrywa obecność naładowanych statycznie ciał. Był też pierwszą osobą, która określiła różnicę pomiędzy magnetyzmem i elektrycznością statyczną i stał się sławny poprzez wprowadzenie pojęcia elektryczności. Około 1600 r. William Gilbert powrócił do greckiej nazwy bursztynu, przez co wkrótce całą naukę nazwano elektrycznością.

- W 1660 r. Otto von Guericke zbudował pierwszy generator elektrostatyczny. 

- Robert Boyle (1675) zauważył, że oddziaływania elektrostatyczne przenikają próżnię. 

- Stephen Grey podzielił (1729) wszystkie substancje na przewodniki i izolatory.

- W 1745 r. powstała butelka lejdejska.

W 1752 r. Benjamin Franklin zbudował pierwszy piorunochron, wypuszczając swój latawiec na metalowej lince podczas burzy.

Przełom XVIII i XIX w. to złoty okres elektrotechniki

Michael Faraday opracował podstawy elektromagnetyzmu, czyli wpływu pola magnetycznego na ładunki elektryczne.

38

Page 39: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Luigi Galvani odkrył, że do przesyłania bodźców w układzie nerwowym u zwierząt również wykorzystywane są ładunki elektryczne.

Alessandro Volta zbudował pierwsze ogniwo elektryczne. W 1775 roku eksperymenty

naukowe Alessandro Volty doprowadziły do wynalezienia elektroforu – urządzenia produkującego statyczny ładunek elektryczny i w 1800 roku Volta wynalazł ogniwo galwaniczne, prekursora baterii elektrycznej.

André Marie Ampère pracował nad elektromagnetyzmem.

Wiek XIX

Jednak dopiero w XIX wieku badania w tym temacie zaczęły się nasilać. Z czasem udało się ustalić i opisać najważniejsze prawa rządzące elektrycznością. Przyczynili się do tego m.in. Georg Ohm, Gustav Kirchhoff, James Clerk Maxwell i inni.

Znaczącym postępem w tym wieku była praca Georga Ohma, który w 1827 roku określił wzajemne relacje pomiędzy prądem elektrycznym i różnicą potencjałów w przewodniku

Kolejnymi etapami były: odkrycie indukcji elektromagnetycznej w 1831 przez Michaela Faradaya oraz

opublikowanie jednolitej teorii elektryczności i magnetyzmu w traktacie Jamesa Clerka Maxwella Elektryczność i Magnetyzm z 1873.

Wkrótce nowa dziedzina wiedzy zaczęła być wykorzystywana w praktyce: 

- Samuel Morse zbudował telegraf, 

- Antonio Meucci – telefon, 

- Thomas Edison wynalazł żarówkę, fonograf, postawił pierwszą elektrownię i zbudował pierwszą miejską sieć elektryczną, rozpoczynając tym samym elektroenergetykę. W 1882 roku Edison włączył pierwszą na świecie sieć elektroenergetyczną na wysoką skalę, która dostarczała 110 V prądu stałego do pięćdziesięciu dziewięciu klientów dolnego Manhattanu.

- Nikola Tesla zbudował pierwszy silnik elektryczny. W 1887 Nikola Tesla wniósł zgłoszenia patentowe związane z konkurencyjną formą dystrybucji energii znanej jako prąd zmienny.

W następnych latach miała miejsce zaciekła rywalizacja pomiędzy Teslą a Edisonem, dotycząca metody generowania i przesyłu energii, nazywana „Walką o prąd przemienny”. Prąd stały (DC) został zastąpiony przez prąd przemienny (AC) w produkcji i rozdziale energii, ogromnie rozszerzając zakres i udoskonalając bezpieczeństwo i sprawność rozdziału energii elektrycznej.

Wysiłki tych dwóch uczyniły wiele w uzupełnieniu wiedzy z elektrotechniki – praca Tesli dotycząca silników indukcyjnych i układów wielofazowych wywierała na tym polu wpływ przez lata, podczas gdy praca Edisona nad telegrafem i udoskonalenie maszyny do pisania okazało się zyskowne dla jego spółki, która ostatecznie przeobraziła się w General Electric.

- Werner von Siemens założył pierwszą fabrykę elektrotechniczną i opracował pierwszy tramwaj elektryczny.

- Powstały urządzenia takie jak radar, radio, telewizja, komputery, satelity...

Elektryczność jest wygodną i stosunkowo tanią formą przesyłania energii, bez której współczesna ludzka cywilizacja nie mogłaby istnieć.

39

Page 40: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Instytucjonalna emancypacja i autonomizacja badań nad elektrycznością

Przez lata badana elektryczność była w znacznej mierze uważana jako poddział fizyki. Tak było aż do późnych lat XIX wieku. W międzyczasie wiedza dotycząca elektrotechniki radykalnie wzrosła, co przełożyło się na podniesienie statusu naukowego badań z tej dziedziny. M. in. uniwersytety rozpoczęły oferować stopnie naukowe w elektrotechnice. 

- Uniwersytet Techniczny w Darmstadt w 1882 roku utworzył pierwszą katedrę i pierwszy na świecie wydział elektrotechniki.

- W 1883 roku w Uniwersytecie Technicznym w Darmstadt i Uniwersytecie Cornella wprowadzono pierwsze na świecie kierunki studiów elektrotechniki, a

- w 1885 roku w University College London wprowadzono pierwszą katedrę elektrotechniki w Wielkiej Brytanii.

- Następnie w 1886 roku w University of Missouri utworzono pierwszy w Stanach Zjednoczonych wydział elektrotechniki.

https://pl.wikipedia.org/wiki/Plik:Thomas_Edison,_1878.jpg

Thomas Edison zbudował pierwszą sieć elektroenergetyczną na wysoką skalę

https://pl.wikipedia.org/wiki/Plik:N.Tesla.JPG

Nikola Tesla umożliwił budowę elektrycznych sieci przesyłowych dalekiego zasięgu

Współczesność badań nad elektrycznością

40

Page 41: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Obecnie naukowcy zajmują się opracowaniem tańszych metod wytwarzania i przekształcania energii elektrycznej, zwiększaniem wydajności istniejących urządzeń, opracowywaniem jeszcze lepszych materiałów na przewodniki i izolatory itp.

Istotną sprawę stanowi ochrona życia i mienia. Mimo iż elektryczność jest już żywiołem ujarzmionym, ciągle nierozważne posługiwanie się nią może być przyczyną nieszczęścia. Choć większość praw i reguł rządzących światem elektrycznym wydaje się być znana, ciągle jeszcze pozostaje wiele do odkrycia lub rozwinięcia.

Analiza metodologiczna - przekrojowa

Kolejne, ważne etapy badań/odkrycia obejmujące:

a) nowe zjawiska

b) wynalazki

a) prawa

Wykorzystane przyrządy naukowe:

Zastosowane procedury badawcze:

- Wynik badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie badań/eksperymentu dla nauki

Wykorzystanie odkryć w praktyce

Społeczne i ekonomiczne skutki zastosowania nowych technologii

Współczesne ujęcie i zastosowania wyniku badań/eksperymentu

41

Page 42: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Wykazanie jedności w pozornej różnorodności – M. Faraday

Michael Faraday ( 1791 - 1867) – fizyk i chemik angielski, eksperymentator, samouk. Profesor Instytutu Królewskiego i Uniwersytetu w Oksfordzie, członek Royal Society

Największe znaczenie miały prace Faradaya dotyczące elektryczności. W 1831 r. odkrył zjawisko indukcji elektromagnetycznej, co przyczyniło się do powstania elektrodynamiki. W

42

Page 43: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

latach 1833-1834 sformułował prawa elektrolizy i wprowadził terminologię dla opisu tego zjawiska.

Faraday stworzył podstawy elektrochemii, odkrył również zjawisko samoindukcji i zbudował pierwszy model silnika elektrycznego. Faraday wprowadził pojęcie linii sił pola i wysunął twierdzenie, że ładunki elektryczne działają na siebie za pomocą takiego pola. Od jego nazwiska jednostka pojemności elektrycznej nazywana jest faradem.

Odkrycia Faradaya z zakresu elektrodynamiki miały ogromne znaczenie z dwóch powodów. Po pierwsze, prawo Faradaya ma podstawowe znaczenie w teorii elektromagnetyzmu. Po drugie, indukcja elektromagnetyczna może być wykorzystana do wytwarzania prądu elektrycznego, co zademonstrował sam Faraday budując pierwszą prądnicę. Nowoczesne generatory elektryczne są znacznie bardziej złożone, jednak wszystkie opierają się na tej samej zasadzie – indukcji elektromagnetycznej.

Indukcja elektromagnetyczna - zjawisko powstawania siły elektromotorycznej w przewodniku na skutek zmian strumienia pola magnetycznego. Zmiana ta może być spowodowana zmianami pola magnetycznego lub względnym ruchem przewodnika i źródła pola magnetycznego.

Zjawisko indukcji opisuje prawo indukcji elektromagnetycznej Faradaya:

gdzie:

 - indukowana siła elektromotoryczna (SEM) w woltach

ΦB - strumień indukcji magnetycznej przepływający przez powierzchnię objętą przewodnikiem.

Zmiana strumienia pola magnetycznego może wynikać z ruchu przewodnika lub źródła pola magnetycznego. Jeżeli jest to ruch obrotowy, to wygenerowana w ten sposób SEM nazywana jest siłą elektromotoryczną rotacji. SEM wytworzona przez nieruchome przewodniki w wyniku zmian indukcji magnetycznej (wywołaną zazwyczaj zmianą natężenia prądu) nazywa się siłą elektromotoryczną transformacji.

Do określania kierunku indukowanego prądu wskutek indukcji elektromagnetycznej używana jest reguła Lenza, zwana regułą przekory, która brzmi: Siła elektromotoryczna indukcji ma taki zwrot, że przeciwdziała przyczynie, która doprowadziła do jej powstania.

Indukcja elektromagnetyczna jest obecnie podstawową metodą wytwarzania prądu elektrycznego oraz podstawą działania wielu urządzeń elektrycznych, np. prądnic, alternatorów, generatorów w elektrowniach, transformatorów, pieców indukcyjnych, silników indukcyjnych i mierników indukcyjnych, cewek, głowic elektromagnetycznych.

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

Zastosowane procedury badawcze:

43

Page 44: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

- odkrycie indukcji elektromagnetycznej

Wcześniejsze badania z danej dziedziny

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie badań/eksperymentu dla nauki

Wilhelm Röntgen

Odkrycie promieniowania – przełom w diagnostyce

Wilhelm Röntgen w 1901

44

Page 45: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Laboratorium Wilhelma C. Röntgena,Uniwersytet w Würzburgu (1895–1900)

Wilhelm Conrad Röntgen (1845 - 1923) – niemiecki fizyk, laureat pierwszej Nagrody Nobla w dziedzinie fizyki (1901), przyznanej „w uznaniu zasług, które oddał przez odkrycie promieni nazwanych jego nazwiskiem”.

W 1895 Röntgen odkrył nowy typ promieniowania. Promienie te zostały nazwane od nazwiska odkrywcy promieniami Roentgena na wniosek histologa Alberta Koellikera na posiedzeniu w Würzburgu. Za to odkrycie w roku 1901 został uhonorowany pierwszą Nagrodą Nobla w dziedzinie fizyki. Innymi tematami jego prac były krystalografia i fizyka płynów.

W większości krajów promienie Roentgena nazywane są promieniami X lub promieniowaniem X (w krajach anglojęzycznych są to X-rays), jednak w Polsce i Niemczech używa się terminu promieniowanie rentgenowskie (także promieniowanie Röntgena lub Roentgena).

Na jego cześć jednostkę dawki promieniowania jonizującego nazwano rentgenem. Również urządzenie do prześwietleń wykorzystujące promieniowanie rentgenowskie – aparat rentgenowski – nazywa się potocznie „rentgenem”.

Od 1 listopada 2004 jego nazwisko znalazło się też w nazwie pierwiastka chemicznego – roentgena (l.a. 111) – znanego wcześniej jako unununium.

Promieniowanie rentgenowskie (promieniowanie rtg, promieniowanie X, promienie X, promieniowanie Roentgena) – rodzaj promieniowania elektromagnetycznego, które jest generowane podczas wyhamowywania elektronów. Długość fali mieści się w zakresie od ok. 10 pm do 10 nm. Zakres promieniowania rentgenowskiego znajduje się pomiędzy nadfioletem i promieniowaniem gamma.

Źródła promieniowania – naukowa eksplantacja zjawiska

Promieniowanie rentgenowskie uzyskuje się w praktyce (np. w lampie rentgenowskiej) poprzez wyhamowywanie rozpędzonych elektronów na materiale o dużej (powyżej 20) liczbie atomowej (promieniowanie hamowania), efektem czego jest powstanie promieniowania o charakterystyce ciągłej, na którym widoczne są również piki pochodzące od promieniowania charakterystycznego anody (rozpędzone elektrony wybijają elektrony z atomów anody). Luki po wybitych elektronach na dolnych powłokach elektronowych pozostają puste do czasu, aż zapełnią je elektrony z wyższej powłoki. Elektron przechodząc z wyższego stanu emituje kwant promieniowania rentgenowskiego – następuje emisja

45

Page 46: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

charakterystycznego promieniowania X. Promieniowanie X powstaje także w wyniku wychwytu elektronu, tj. gdy jądro przechwytuje elektron znajdujący się na powłoce K, w wyniku czego powstaje wolne miejsce, na które spadają elektrony z wyższych powłok i następuje emisja kwantu X. Przykładem źródła promieniowania X działającego w oparciu o wychwyt elektronu jest 55 Fe, emitujące 80% kwantów o energii ok. 5,9 keV (linia Kα) oraz 20% o energii 6,2 keV (linia Kβ).

Obecnie są budowane także efektywniejsze źródła promieniowania X, promieniowanie wytwarzane jest przez poruszające się po okręgu elektrony w synchrotronach, stąd promieniowanie to nazywa się promieniowaniem synchrotronowym. Pierwsze źródła promieniowania synchrotronowego należące do tzw. I i II generacji były stosunkowo mało wydajne. Dopiero źródła promieniowania synchrotronowego nowszej konstrukcji, należące do III generacji, pozwoliły na osiąganie większych natężeń promieniowania, a przede wszystkim umożliwiły w miarę ciągłą bezawaryjną pracę. Synchrotrony III generacji zaopatrywano też z reguły w tzw. „urządzenia wstawkowe” (ang. insertion devices) – wigglery i undulatory. W urządzeniach tych elektrony poruszają się w periodycznym polu magnetycznym po trajektorii zbliżonej do sinusoidy, dzięki czemu natężenie emitowanego promieniowania znacznie się zwiększa (nawet o kilka rzędów wielkości) w stosunku do natężenia promieniowania wytwarzanego w polu magnesów zakrzywiających synchrotronu bez urządzeń wstawkowych. Przykładem źródeł synchrotronowych mogą być: BESSY II (Berlin), DORIS III (II generacji, Hasylab, Hamburg), ESRF (III generacji, Grenoble).

Obecnie działają już źródła kolejnej, IV. generacji promieniowania synchrotronowego, lasery rentgenowskie (lasery na elektronach swobodnych, FEL – ang. Free Electron Laser). Najsilniejszy z nich, laser FLASH w DESY (Hamburg) wytwarza impulsy monochromatycznego promieniowania w zakresie XUV-SX (skrajnego ultrafioletu próżniowego do miękkiego promieniowania rentgenowskiego), o czasie trwania około 25 femtosekund i mocy szczytowej w impulsie dochodzącej do 1 GW. Lasery FEL są przestrajalne, a emitowane przez nie promieniowanie jest spójne i spolaryzowane liniowo. Szczytowe natężenie w impulsie osiągać może wartości ponad 9 rzędów wielkości większe niż otrzymywane z najpotężniejszych synchrotronów III generacji. W lutym 2007 w tym samym ośrodku w Hamburgu rozpoczęto budowę europejskiego lasera X-FEL działającego w rentgenowskim zakresie długości fali 0,05–6 nm

Zastosowanie

Promieniowanie rentgenowskie wykorzystywane jest w celu obrazowania wewnętrznej struktury obiektów. Jedną z metod opracowaną przez zespół z University College London jest badanie odchylenia kierunku ruchu promieniowania w wyniku przejścia przez badany obiekt z zastosowaniem kontrastu fazowego.

46

Page 47: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Zdjęcie rentgenowskie dłoni Alberta von Köllikera wykonane przez Röntgena na posiedzeniu Physical Medical Society w Würzburgu 23 stycznia 1896

Promieniowanie rentgenowskie jest wykorzystywane do uzyskiwania zdjęć rentgenowskich, które pozwalają m.in. na diagnostykę złamań kości i chorób płuc oraz do rentgenowskiej tomografii komputerowej. Wysokoenergetyczne promieniowanie rentgenowskie (rzędu MeV) stosowane jest jako wygodna alternatywa napromieniowania za pomocą radioizotopów (brak konieczności okresowej wymiany materiału promieniotwórczego) w radioterapii niektórych nowotworów. Promieniowanie takie generowane jest zwykle w wyniku bombardowania tarczy wolframowej (lub z dużym udziałem tego metalu) strumieniem elektronów pochodzących z akceleratorów liniowych. Do naświetleń powierzchownych nowotworów wykorzystuje się także niżej energetyczne promieniowanie rentgenowskie z zakresu 80–250 KeV.

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

Zastosowane procedury badawcze:

- Wynik badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

47

Page 48: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Znaczenie badań/eksperymentu dla nauki

Wykorzystanie odkrycia w praktyce

Współczesne ujęcie i zastosowania wyniku badań/eksperymentu

Odkrycie elektronu

Doświadczalny dowód istnienia – Joseph Thomson

Joseph John Thomson (1856 - 1940 ) – fizyk angielski związany z Laboratorium Cavendisha w University of Cambridge. W 1906 r. otrzymał Nagrodę Nobla w dziedzinie fizyki „w uznaniu zasług za teoretyczne i eksperymentalne badania nad przewodnictwem elektrycznym gazów”, które doprowadziły do odkrycia elektronu.

48

Page 49: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Po uzyskaniu dyplomu J. Thomson obejmuje wykłady matematyki na Uniwersytecie Cambridge i rozpoczyna pracę w Laboratorium Cavendisha. Tutaj rozpoczyna pracę pod kierunkiem Karola Rayleigha polegającą na wyznaczaniu zależności jednostek ładunku elektrycznego w układzie elektrostatycznym i elektromagnetycznym. Była to praca żmudna i trudna, a już pierwsze wyniki wykazywały niewielkie różnice od przewidywanych teoretycznie. Początkowo samodzielne prace Thomsona mają charakter teoretyczny.

Po objęciu kierownictwa Laboratorium Cavendisha Thomson prowadzi badania nad przewodnictwem gazów i tym zagadnieniem zajmował się przez dłuższy okres. W rok po odkryciu przez Roentgena promieni X, Thomson wraz z Ruthefordem wydaje pracę O przewodzeniu elektryczności przez gazy wystawione na działanie promieni Roentgena. Z prac tych wyciągnięto wniosek, że to przewodnictwo zawdzięczamy pewnym cząstkom obecnym w gazie, i że te cząstki są naelektryzowane. Przeprowadza kilka doświadczeń nad promieniowaniem katodowym – dwiema metodami dla różnych gazów i rodzajów materiału. Thomson wysuwa z nich wniosek o istnieniu w atomach różnych korpuskuł o jednakowej masie i jednakowym ładunku elektrycznym. Korpuskuły te nazwano później elektronami.

Odkrycie elektronu zapoczątkował Michael Faraday, który w 1838 roku przepuścił prąd elektryczny przez szklaną rurkę, zawierającą rozrzedzone powietrze. W czasie tego doświadczenia zauważono dziwny łuk świetlny, który rozciągał się od anody (elektrody dodatniej) aż do katody (elektrody ujemnej). Jedynym miejscem, w którym nie zaobserwowano świecenia, był obszar tuż przed katodą (tak zwana ciemnia Faradaya). Zjawisko owego świecenia nazwano zjawiskiem promieni katodowych, które emitowane są z katody w kierunku anody.

Zjawisko promieni katodowych        

Przez długi czas uważano, że świecenie w rurze powodują jakieś cząsteczki bądź też, że promienie katodowe mają naturę falową. W 1896 roku wątpliwości te rozwiał J. Thomson w oparciu o swój eksperyment, w którym wykorzystał rurę z rozrzedzonym gazem służącą do wytwarzania promieni katodowych.

W anodzie Thomson zrobił niewielki otwór, dzięki któremu część promieni katodowych, uformowanych w wąską wiązkę, wychodziła poza obszar elektrod. Przechodziła ona przez długą rurę próżniową i padała na fluorescencyjny ekran, który umieszczony był na jej końcu. Na ekranie, w miejscu padania wiązki, powstawała świecąca plamka. Ponadto w rurze próżniowej umieszczone zostały dwie metalowe płyty, podłączone do baterii, między którymi wytwarzane było napięcie elektryczne. Wiązka promieni katodowych przebiegała

49

Page 50: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

pomiędzy płytami tak, że kierunek pola był do niej prostopadły. Po wytworzeniu pola elektrycznego okazało się, że wiązka ulega ugięciu (jej obraz na ekranie zmieniał swoje położenie), co było dowodem na to, że promienie katodowe składają się z cząstek, które obdarzone są ładunkiem elektrycznym. Kierunek ugięcia wiązki wskazywał na to, że cząstki obdarzone są ładunkiem ujemnym.

Aparatura Thomsona do wytwarzania promieni katodowych

Cząstki wchodzące w skład wiązki, nazwano elektronami. Thomson stwierdził także, iż elektrony są składnikami wszystkich atomów, a promienie katodowe to elektrony, które oddzieliły się od atomów.

Lampa elektronowa Thomsona została również zastosowana do ilościowego zbadania ugięcia wiązki elektronów w polu magnetycznym i elektrycznym. Zjawiska te mogły być obserwowane dzięki wbudowanym płytkom odchylania pionowego (pole elektryczne) oraz generacji zewnętrznego pola magnetycznego, które wytwarzane było przez parę cewek. Jeżeli pola magnetyczne i elektryczne są względem siebie prostopadłe, to na strumień elektronów w ruchu działają przeciwnie skierowane siły pola elektrycznego i magnetycznego. Dobranie odpowiednich wartości tych pól prowadzi do zrównoważenia sił i w ten sposób można wyznaczyć ładunek właściwy elektronu e/m. Posługując się komorą Wilsona ustalił, że masa elektronu jest 1000 razy mniejsza, niż masa cząsteczki wodoru.

Thomson opracował także teorię dwóch głównych metod oceny liczby elektronów zawartych w atomach różnych pierwiastków. Późniejsze prace Thomsona nad promieniami i stosunkiem e/m dla promieni kanalikowych doprowadziły do odkrycia izotopów. Wykonał liczne badania w dziedzinie teorii elektronów, prowadząc prace nad wyładowaniami w gazach rozrzedzonych. Prowadził też prace nad przewodnictwem prądu elektrycznego przez gazy. Za prace te otrzymał w 1906 roku Nagrodę Nobla z fizyki. Skonstruował pierwszy spektrometr mas. W roku 1911 dokonał pierwszej analizy wiązki jonów. W roku 1913 odkrył, wraz z F.W. Astonem, istnienie izotopów neonu.

50

Page 51: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

W prawym dolnym rogu zdjęcia ślady dwóch izotopów neonu: neon-20 i neon-22

51

Page 52: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Symbol eKlasyfikacja lepton, fermion

Ładunek

Masa

Spin 1/2

Podstawowe własności elektronu

Komora Wilsona (inaczej komora kondensacyjna, komora mgłowa) – urządzenie służące do detekcji promieniowania jądrowego poprzez obserwację śladów cząstek elementarnych (promieniowania jonizującego), zaprojektowane przez szkockiego fizyka Charlesa Wilsona w 1900 r. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem ich istnienia, że usunęły wszelkie wątpliwości co do konkluzji Becquerela, Curie i innych. W roku 1932 Carl David Anderson za pomocą komory Wilsona udowodnił istnienie pozytonu. W drugiej połowie XX wieku komory Wilsona zostały zastąpione przez komory pęcherzykowe.

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

- lampa elektronowa (Thomsona)

- komora Wilsona 

Zastosowane procedury badawcze:

- wykorzystanie i rozwinięcie doświadczenia Faradaya

Logiczna analiza eksperymentu/ zastosowane rozumowania

- Wynik badań/eksperymentu

- odkrycie elektronu; ustalenie podstawowych właściwości elektronu: masa, e/m

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

52

Page 53: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Znaczenie eksperymentu dla nauki

Odkrycie jądra atomu

Eksperyment Rutherforda (rok 1911)

Model atomu według koncepcji Thomsona: model ciasta z rodzynkami – ładunki ujemne (elektrony) porozrzucane równomiernie w dużej strukturze ładunku dodatniego

W roku 1897 fizyk angielski, profesor Uniwersytetu Cambridge, noblista sir Joseph John Thomson odkrył elektron. Odkrycie ujemnie naładowanego elektronu, który można oderwać od atomu, zachwiało poglądami na temat budowy atomu – wcześniej uważano, że atomy to niepodzielne kulki bez struktury wewnętrznej. Skoro elektron ma ładunek ujemny, to reszta musi mieć ładunek dodatni. Ilości tych ładunków równoważą się tak, że atom w całości ma ładunek obojętny. Kwestią sporną było jak to jest rozłożone w przestrzeni atomu. Koncepcji, jak zawsze w takim przypadku, pojawiło się sporo, ale w końcu przeważyła hipoteza samego Thomsona, zwana modelem ciasta z rodzynkami. Głosiła ona, że dodatnio naładowany ładunek rozłożony jest w całej objętości atomu a elektrony tkwią w nim punktowo tak, jak rodzynki w cieście. Teoria ta wydawała się najbardziej stabilnym i wiarygodnym opisem materii; w dodatku nie kłóciła się z intuicyjnym przekonaniem o ciągłości i spoistości materii. Odkrycie nowego rodzaju promieniowania, znanego obecnie jako promieniowanie jądrowe, wywołało nową falę niejasności i niepewności w świecie nauki. Model ciasta z rodzynkami nie nadawał się do wyjaśnienia przyczyny zjawiska emisji atomów przez inne atomy.

53

Page 54: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Eksperyment Rutherforda

Górny rysunek: według teorii Thomsona cząstki alfa swobodnie pokonują wnętrze atomu.Dolny rysunek: obserwowany rezultat eksperymentu: niewielka część cząstek jest odbijana, ukazując mały skoncentrowany w niewielkiej przestrzeni ładunek dodatni

Hipotezę Thomsona podważył jego dawny uczeń i następca na katedrze fizyki, Nowozelandczyk sir Ernest Rutherford, będący notabene pierwszym cudzoziemskim studentem na katedrze im. Cavendisha.

Rutherford zaprojektował eksperyment polegający na bombardowaniu bardzo cienkiej złotej folii promieniowaniem alfa (pozyskiwanymi przy użyciu radioaktywnego radonu jądrami helowymi) i obserwacji charakteru rozkładu kątowego przechodzących przez nią cząstek alfa, co miało pozwolić określić strukturę budowy atomu. Przyrząd do badania zjawiska zawierał źródło cząstek alfa w ołowianym pojemniku z niewielkim otworem skierowanym na złotą folię, zaś funkcję detektora scyntylacyjnego pełnił ekran pokryty siarczkiem cynku. Podczas eksperymentu detektor scyntylacyjny umieszczano pod różnymi kątami względem pierwotnego kierunku promieniowania alfa. Obserwacja ekranu przez lupę umożliwiała zobaczenie błysków, gdy cząstka alfa trafiała w scyntylator.

Wyznaczając zależność liczby cząstek alfa trafiających w ekran od kąta rozpraszania, można uzyskać dane o nierównomierności rozkładu ładunku w jądrze, a także o liczbie elektronów w atomie.

Eksperyment przeprowadzony został w maju 1909 roku przez stażystę Hensa Geigera (od którego nazwiska nazwany został także przyrząd pomiarowy, licznik Geigera) oraz studenta Ernesta Marsdena.

Zgodnie z teorią Thomsona wszystkie cząstki alfa powinny bez przeszkód przejść przez daną folię. Eksperyment wykazał, iż niewielka część (średnio jedna na 8000) wystrzelonych cząstek alfa odbija się od złotej folii, co zadziwiło eksperymentatorów i

54

Page 55: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

obaliło teorię Thomsona. Rutherford skomentował to słynnymi słowami: „To było chyba najbardziej niewiarygodne zdarzenie w moim życiu. To tak, jakby pocisk artyleryjski wielkiego kalibru, wystrzelony w kierunku serwetki, odbił się od niej i powrócił do strzelającego”.

Na początku 1911 roku Rutherford opublikował wnioski. Jego model atomu zakładał istnienie stosunkowo niewielkiego jądra o bardzo dużej masie, a w znacznej odległości od niego elektrony umieszczone na orbitach. Ze względu na wyraźną analogię pomiędzy budową atomu i budową Układu Słonecznego, koncepcja Rutherforda nazywana jest planetarną budową atomu.

Model planetarny został udoskonalony w roku 1913 przez Nielsa Bohra.

Eksperyment Rutherforda wraz z wypływającymi zeń wnioskami okazał się być pierwszym kamieniem milowym dla rozwoju współczesnej fizyki kwantowej. Także idea planetarnej budowy atomu, choć niedoskonała, stanowi punkt wyjścia dla współcześnie znanego modelu atomu.

Analiza metodologiczna

Inspiracje do badań:

Wykorzystane metody/ przyrządy naukowe:

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu/ zastosowane rozumowania

- Wynik eksperymentu

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie badań/eksperymentu dla nauki

55

Page 56: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Odkrycie spinu

Dokładność i ostrożność – zalety eksperymentowania: Otto Stern

Otto Stern (ur. 1888 r w Żorach (wówczas Sohrau) - zm. 1969 r) – niemiecki fizyk, laureat Nagrody Nobla w dziedzinie fizyki

Doświadczenie Sterna-Gerlacha

Słynne doświadczenie, które dowiodło istnienia spinu elektronu. Równoległą wiązkę

atomów przepuszczono przez pole magnetyczne - na skutek jego oddziaływania na momenty

magnetyczne atomów (sprowadzające się do momentów magnetycznych elektronów, bo

atomy były w stanie podstawowym, tzn. miały zerową wartość magnetycznych momentów

orbitalnach) wiązka rozdzieliła się na dwie (tzw. zjawisko kwantowania przestrzennego),

czego nie można było wyjaśnić na gruncie teorii klasycznej, zgodnie z którą wiązka

56

Page 57: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

powinna ulegać jedynie rozmyciu. Doświadczenie wykonali w 1921 roku fizycy

niemieccy: O. Stern i W. Gerlach (1889-1979).

Doświadczenie to w oryginalnej wersji polegało na przepuszczeniu wiązki atomów srebra przez niejednorodne pole magnetyczne i obserwacji obrazu wiązki na ekranie (np. kliszy fotograficznej).

Atomy srebra mają niezerowy własny moment pędu (spin) i związany z nim moment magnetyczny. Oddziaływanie tego momentu magnetycznego z zewnętrznym polem magnetycznym zmienia tor ruchu atomu. Zmiana ta zależy od orientacji wektora momentu pędu w przestrzeni, a dokładniej od wartości rzutu tego wektora na kierunek zewnętrznego pola.

Interpretacje doświadczenia: mechanika klasyczna versus mechanika kwantowa - konkurencyjne hipotezy wyjaśniające

Ponieważ kierunki spinów atomów opuszczających pole magnetyczne są przypadkowe, to, zgodnie z mechaniką klasyczną, wartość tego rzutu może przyjąć dowolną wartość ograniczoną tylko przez wartość (długość wektora) momentu magnetycznego. Tym samym odchylenie toru atomu może być dowolne; pomiędzy wartościami skrajnymi odpowiadającymi ustawieniom spinu równolegle i antyrównolegle do pola. Mechanika klasyczna przewiduje więc, że obraz wiązki na ekranie powinien być jedną plamą rozciągniętą wzdłuż kierunku pola magnetycznego.

Według mechaniki kwantowej przewidywanie wyniku eksperymentu jest inne: rejestracja odchylenia toru atomu (jego położenia na ekranie) jest aktem pomiaru składowej momentu pędu wzdłuż kierunku zewnętrznego pola. Pomiar taki może dać wynik tylko z pewnego dyskretnego zbioru możliwych wartości. W wypadku cząstki o spinie 1/2 możliwe są dwa wyniki takiego pomiaru: +1/2 i –1/2. Oznacza to, że atomy srebra powinny

57

Page 58: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

być rejestrowane tylko w dwóch punktach ekranu, a w praktyce, ze względu na skończone rozmiary poprzeczne wiązki i nieunikniony rozrzut prędkości atomów, w dwóch obszarach.

W doświadczeniu faktycznie obserwuje się na ekranie dwie plamy, zgodnie z przewidywaniem mechaniki kwantowej.

Zadanie #

9) Zbiór (lub podzbiór) zdań: p - z uporządkuj w sekwencję inferencyjną, b) jedną ze znanych Ci sekwencji eksplanacyjnych. W każdym przypadku podaj konkluzję.

p - Jeśli elektrony wykazują pewne właściwości falowe to ich wiązki powinny ulegać interferencji (nakładaniu się) i dyfrakcji (ugięciu).

q - Jeśli wiązki elektronów ulegaja interferencji (nakładaniu się) i dyfrakcji (ugięciu), to elektrony wykazują pewne właściwości falowe.

r - Jeżeli elektrony podlegają kwantyzacji przestrzennej, to wykazują pewne właściwości falowe.

s - Jeżeli elektrony podlegają kwantyzacji przestrzennej, to ich wiązka, przechodząc przez bardzo skoncentrowane pole magnetyczne o dużym natężeniu, powinno ulec rozszczepieniu.

t - Posiadające ładunki elektryczne elektrony poruszając się (po orbitach - zgodnie z teorią atomową N. Bohra) wytwarzają pole magnetyczne. Jeżeli istnieje kwantyzacja przestrzenna elektronów, tzn. jeżeli orbity wszystkich elektronów w każdym atomie układają się na tylko jednej z możliwych płaszczyzn, to pole magnetyczne każdego z atomów będzie związane z tą właśnie płaszczyzną.

u - W przypadku doświadczenia O. Sterna pola magnetyczne atomów – jak wynika to z obliczeń trzeciej liczby kwantowej (m) - powinny, w stosunku do zewnętrznego pola magnetycznego, ustawiać się pod dwoma różnymi kątami.

w - Tzw. trzecia liczba kwantowa (m) odnosi się do kwantyzacji przestrzennej elektronów; określa dopuszczalne kąty, jakie płaszczyzny orbitowania elektronów mogą tworzyć z pewną płaszczyzną stałą (płaszczyzną zewnętrznego pola magnetycznego)

z - O. Stern stwierdził, że gdy zewnętrzne pole magnetyczne pozostaję wyłączone, obraz wiązki elektronów, obraz wiązki jest jednorodny. Natomiast po włączeniu pola magnetycznego wiązka elektronów rozdziela się na dwie.

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

58

Page 59: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

mpt

- Wynik badań/eksperymentu

-dowód na istnienie kwantowania momentu pędu

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie badań/eksperymentu dla nauki

59

Page 60: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

BiologiaBotanika Fizjologia roślin

Krążenie soku w roślinach – zmierzone

Stephen Hales

Stephen Hales (1677 - 1761) angielski duchowny, który uczynił znaczący wkład do wielu dziedzin naukowych, w tym botaniki, chemii i fizjologii roślin. Najbardziej znane prace Halesa to Staticks (1727) oraz Haemastaticks (1733)

Fizjologia roślin

Hales zasłynął jako pionier eksperymentalnej fizjologii. Zajmował się „pneumatyką i hydrauliką” roślin.

60

Page 61: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Hales badał transpirację - utratę wody z liści roślin. W Staticks (1727) roku opisał zjawisko parcia korzeniowego opartego na zjawisku osmozy, w którym woda przepływa od miejsc o słabym stężeniu soli mineralnych do miejsc z dużym stężeniem soli mineralnych. Dzięki zastosowaniu odpowiedniej aparatury zmierzył ilość wody napływającej do rośliny a następnie porównał te dane z ilością wody opuszczającej przez liście instalację transpiracji. Zmierzył również „siłę” czyli ciśnienie główne soku.

Hales pokazał także, że rośliny absorbują powietrze. W Staticks Hales opisał eksperymenty, które pokazały również, że „powietrze swobodnie wchodzi w rośliny, nie tylko z głównego źródła pożywienia, przez korzenie, ale także przez powierzchnie ich pni i liści”. 

Hales wynalazł wentylator, dzięki któremu zwiększono prawdopodobieństwo przeżycia w szpitalach lub statkach w sytuacjach zmniejszonej wymiany powietrza oraz prototyp sfigmomanometru. Prowadził też badania dotyczące krwiobiegu.

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

61

Page 62: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Instalacja do badania/ ilościowego pomiaru transpiracji

Zastosowane procedury badawcze:

- dokładne pomiary

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie badań/eksperymentu dla nauki

Imprinting

Wybór między konkurencyjnymi hipotezami – Konrad Lorenz

Konrad Zacharias Lorenz (1903 – 1989) – austriacki zoolog i ornitolog, twórca nowoczesnej etologii. Laureat nagrody Nobla w dziedzinie medycyny i fizjologii.

Wdrukowanie (ang. imprinting), po polsku również naznaczenie lub wpojenie - obserwowane u młodych organizmów występujące w ściśle określonym momencie rozwoju osobniczego (tzw. okresie krytycznym, czasami trwającym ledwie kilka godzin) utrwalenie się, praktycznie nie podlegające modyfikacji, wzorca swojego rodzica, rodzeństwa oraz typowych dla gatunku zachowań.

U pewnych gatunków, w okresie krytycznym, każdy poruszający się przedmiot (np. samochodzik ciągnięty na sznurku) lub organizm o cechach innych niż wrodzony wzorzec) zostanie uznany za matkę i z nim utożsamiony. Jest to odpowiednik tego co u ludzi nazwalibyśmy samoświadomością. Podążanie świeżo wyklutych gęsi za człowiekiem zauważyli i po raz pierwszy opisali Douglas Spalding (1872 r.) oraz znany badacz ptaków Oskar Heinroth (1910 r.) który to zjawisko nazwał reakcją piętna.

Pojęcie imprintingu jest jednak kojarzone głównie z Konradem Lorenzem, który poświęcił wiele czasu obserwacji zachowań zwierząt i szeroko spopularyzował w swoich

62

Page 63: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

książkach tematykę etologiczną. Jego zainteresowanie etologią, zaczęło się od obserwacji gęsich sierot i przejawów imprintingu u tych ptaków. Później okazało się, że wdrukowanie jest zjawiskiem dość typowym dla wszystkich zagniazdowników oraz ssaków, zaraz po urodzeniu podążających za matką (zwłaszcza stadnych, takich jak owca, jeleń).

Wdrukowanie jest szczególnym przykładem uczenia się (warunkowania). Wdrukowaniem jest również więź matka-dziecko oraz partner-partnerka u wielu gatunków utrzymująca się przez całe życie. W okresie dojrzewania, w dużym stopniu wdrukowaniu podlegają osobnicze preferencje seksualne. U wielu organizmów, w tym także u człowieka, podobne zjawiska również zachodzą, lecz są bardziej rozciągnięte w czasie i nie mają tak ostro zaznaczonego okresu krytycznego. Dlatego zwykle nie nazywamy ich wdrukowaniem.

Znaczenie wdrukowania jest oczywiste. Małe pisklę lub jelonek musi wiedzieć kto jest jego opiekunem, za nim podążać i tak samo się zachowywać. W razie rozdzielenia, np. podczas ucieczki, powinno się zbliżyć do innego, podobnego osobnika, który się nim zaopiekuje. Jeśli po rozdzieleniu będzie w stanie się samo wyżywić, musi wiedzieć, jak ma wyglądać jego przyszły partner. Para rodziców, zwłaszcza w trudnych warunkach, ma większe szanse wychować potomstwo.

Mechanizm tego zjawiska można wyjaśnić na gruncie integracyjnej działalności mózgu J. Konorskiego. Młody organizm pozostaje w stanie permanentnego pobudzenia eksploracyjnego a obiekt ruchomy (matka) wywołuje odruch orientacyjny (skupia uwagę). Zmysły młodego organizmu analizują i rejestrują w pamięci najważniejsze cechy obserwowanego obiektu. Nowe bodźce w „pustym gnostycznie mózgu” zajmują znaczne obszary. Wzorzec rodzica utrwala się szybko i w wielu ośrodkach gnostycznych mózgu, reprezentujących różne właściwości (to tłumaczy dlaczego jest taki trwały) jako tak zwana jednostka gnostyczna. Teraz zwierzęciu wystarczy rzucić okiem, aby rozpoznać z kim ma do czynienia. Następuje habituacja (Konorski nazywa to immunizacją jednostki gnostycznej) bodźca (wzorca), co zapobiega dalszym analizom i przeciwdziała różnicowaniu. Nie znaczy, że w miarę doskonalenia swoich zmysłów zwierzę nie zauważa nowych elementów wzorca. W przypadku wdrukowania o podłożu prokreacyjnym, szczególną rolę odgrywają hormony uaktywniające odpowiednie okolice mózgu, zmieniające zachowanie, często też ubarwienie.

Etologia (gr. gr. ήθος - obyczaj) – dziedzina zoologii zajmująca się szeroko pojętymi badaniami zachowań zwierząt, zarówno odziedziczonych jak i nabytych, ich aspektem przystosowawczym czy rozwojem osobniczym.

63

Page 64: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

64

Page 65: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

65

Page 66: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Analiza metodologiczna

Inspiracje do badań:

Wykorzystane metody/ przyrządy naukowe:

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie badań/eksperymentu dla nauki

66

Page 67: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

GenetykaOdkrycie praw dziedziczenia

Ukryty mechanizm znanego zjawiska – Gregor Mendel

o. Gregor Johann Mendel OSA, Grzegorz Mendel (1822 - 1884 ) − zakonnik, opat zakonu augustianów w Brnie na Morawach, prekursor genetyki

Genetyka (gr. γένεσις, łąc. genesis –pochodzenie) – nauka o dziedziczności i zmienności

organizmów, które są oparte na informacji zawartej w podstawowych jednostkach

dziedziczności – genach.

Terminu „genetyka” po raz pierwszy użył w 1905 William Bateson orędownik pracy

Mendla. Spopularyzował on użycie tego słowa, aby opisać badanie dziedziczenia w

inauguracyjnej odezwie na Trzecią Międzynarodową Konferencję Krzyżowania Roślin (The

Third International Conference on Plant Hybrydization) w Londynie w 1906 roku.

67

Page 68: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Mendel sformułował podstawowe prawa dziedziczenia, przeprowadzając badania nad krzyżowaniem roślin, głównie grochu zwyczajnego (Pisum sativum), których wyniki ogłosił w 1865 roku na posiedzeniu lokalnego towarzystwa naukowego w Brnie. W 1866 roku opublikował je drukiem w artykule Badania nad mieszańcami roślin (Versuche über Pflanzen-Hybriden).

W uwspółcześnionej postaci jego odkrycia brzmią następująco:

Pierwsze prawo Mendla (prawo czystości gamet) – w organizmach znajdują się komórki, które dla każdej cechę posiadają jeden gen (allel). Komórki te to gamety.

Drugie prawo Mendla (prawo niezależnej segregacji) – geny warunkujące różne cechy segregują się niezależnie od siebie i jest kwestią przypadku, który allel z pary warunkującej jedną cechę znajdzie się w gamecie z jednym bądź drugim allelem z par alleli warunkującej drugą cechę.

Zastosowana metoda

Mendel użył pyłku z jednej czystej linii do zapłodnienia komórek jajowych osobników z drugiej linii, starając się, by cechy używane do rozróżnienia linii czystej były widoczne, jak na przykład kolor nasion lub kolor kwiatów. Roślina z czystej linii o żółtych nasionach skrzyżowana z inną, w którym wszystkie nasiona są zielone, dawała jedynie potomstwo o żółtych nasionach.

Była to ciekawa obserwacja, która pobudziła Mendla do rozważań i dalszych badań. Przede wszystkim obalała twierdzenie o dziedziczeniu mieszanki cech, ponieważ wszystkie nasiona wyglądały jak jeden z rodziców i nie przejawiały żadnego wypośrodkowania. Jednakże wsobne krzyżowanie żółtych potomków dało następny zastanawiający wynik: w drugim pokoleniu pojawiły się zarówno zielone jak i żółte nasiona, a zielone potomstwo było dziełem żółtych roślin rodzicielskich, przy czym udział procentowy osobników dających takie czy inne nasiona był zawsze taki sam.

Na tej podstawie Mendel wydedukował, że jednostki dziedziczenia mogą występować w dwóch formach, czyli, jak powiedzielibyśmy dzisiaj, allelach. Komórki somatyczne zawierają jedną parę takich alleli na każdą cechę, podczas gdy każde ziarno pyłku czy komórka jajowa zawierają po jednym z alleli; w związku z tym w zygocie, a co za tym idzie, w komórkach somatycznych, tworzą się następujące kombinacje:

- dwa allele barwy żółtej

- jeden allel żółty i jeden allel zielony

- dwa allele na barwę zieloną

68

Page 69: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Pierwszy, dominujący allel, może zatrzeć istnienie swego recesywnego (ustępującego) odpowiednika. Żółte nasiono grochu może powstać wskutek kombinacji dwóch alleli barwy żółtej lub allelu barwy żółtej z recesywnym allelem barwy zielonej. Aby nastąpiło ujawnienie fenotypowe allelu barwy zielonej, musi on wystąpić w podwójnej „dawce”, a zatem zielone nasiona są wynikiem połączenia dwóch alleli recesywnych.

Żółte nasiona otrzymane przez Mendla w pierwszym pokoleniu pochodziły od rodziców z linii różniących się kolorem nasion. Każda z roślin potomnych w tym pokoleniu miała jedną kopię allelu barwy żółtej i jedną kopię allelu barwy zielonej nasion. Na podstawie prostej arytmetycznej kalkulacji można obliczyć, że skrzyżowanie tych hybryd (heterozygot) daje jedną czwartą roślin z dwoma allelami barwy żółtej, jedną czwartą roślin z dwoma allelami barwy zielonej i połowę roślin zawierających oba odmienne allele tego genu. Daje to następujący stosunek: trzy rośliny o żółtych nasionach do jednej o nasionach zielonych.

Analiza metodologiczna

Inspiracje do badań:

Wykorzystane metody/przyrządy naukowe:

69

Page 70: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Zastosowane procedury badawcze:

- krzyżowanie roślin; grochu zwyczajnego (Pisum sativum)

- obliczenia arytmetyczne

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

zjawisko dziedziczenia 

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

pierwsze prawo Mendla (prawo czystości gamet) drugie prawo Mendla (prawo niezależnej segregacji)

Znaczenie eksperymentu dla nauki

Od biologii dziedziczenia do współczesnej genetyki

Ponowne „odkrycie” i dalszy rozwój teorii dziedziczenia; metoda indukcji, znaczenie uogólnień

Znaczenie badań Mendla

Przed Mendlem, mimo setek lat rozwoju rolnictwa, nikt ich nie próbował lub nikt nie dostrzegł znaczenia wyników, jakie on otrzymał. Ale i odkrycia samego Mendla początkowo nie uzyskały rozgłosu. Choć jego wyniki były znane wielu współczesnym mu biologom, to zostały zignorowane jako odnoszące się tylko do badań nad grochem.

70

Page 71: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Ze znaczenia prac Mendla zdano sobie sprawę dopiero pół wieku później, na początku XX w. W roku 1900 trzej uczeni Hugo de Vries, Carl Correns i Erich Tschermak, niezależnie potwierdzili wyniki jego prac.

Wkrótce przeanalizowano krzyżówki wielu roślin i zwierząt. W większości wypadków wykazano zgodność z prawami Mendla. Wydawało się, że zasady dziedziczenia są całkiem proste, jednakże im więcej prowadzono badań, tym bardziej jasne było, że jeszcze dużo pozostało do poznania. Nie zmienia to faktu, że współczesna genetyka wciąż jeszcze bazuje na „mendelizmie” i na jego dwóch podstawowych prawach dziedziczenia.

Dalsze odkrycia w zakresie dziedziczenia

Dość szybko po ponownym odkryciu i potwierdzeniu wyników prac Mendla pojawiły się ważne obserwacje, stanowiące odstępstwa od jego praw. Okazało się mianowicie, że niektóre z cech nie są niezależne. Znaczy to, że istnieją takie „zestawy” cech, które przejawiają skłonność do wspólnego przechodzenia z pokolenia na pokolenie; każdy z genów należy do jednej z kilku grup, w obrębie których geny są przekazywane razem. Prawu Mendla o niezależnej segregacji podlegają jedynie członkowie różnych grup. Tak np. na podstawie krzyżówek u muszek owocowych wyróżniono cztery grupy „genów sprzężonych”, odpowiadające czterem parom chromosomów. Geny występujące na innych chromosomach dziedziczyły się jak „niezależne czynniki dziedziczne”.

Przy czym związek między genami sprzężonymi nie był bezwzględny, bowiem za każdym razem, gdy powstawał plemnik czy komórka jajowa, chromosomy pękały i łączyły się w nowe kombinacje. Wkrótce zdano sobie sprawę, że im bliżej geny znajdują się na chromosomie, tym częściej dziedziczą się „zależnie”. Właśnie ta „korekta” praw Mendla, obok samych tych praw, a także badania Hugona de Vriesa nad mutacjami legły u podłoża współczesnej genetyki.

Kontynuatorzy Mendla

Hugo Marie de Vries (1848 - 1935)

Holenderski botanik i genetyk, który rozpoczął badania nad dziedzicznością i zmiennością oraz powstawaniem nowych ras i gatunków w procesie ewolucji. Zasłynął jako twórca teorii mutacji, zajmował się ponadto fizjologią komórki (plazmoliza i osmoza).

Twórczość naukowa de Vriesa dzieli się na dwa okresy: pierwszy poświęcony badaniom fizjologii roślin oraz drugi, w którym głównym ośrodkiem zainteresowań stały się problemy zmienności, dziedziczności i ewolucji.

Poczynając od 1880 zainteresowania de Vriesa zaczęły się skupiać wokół zmienności organizmów żywych oraz powstawania nowych ras i gatunków w procesie ewolucji. Był jednym z „odkrywców” prac Mendla.

71

Page 72: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

François Jacob (1920 - 2013 )

Francuski genetyk, laureat Nagrody Nobla w dziedzinie fizjologii lub medycyny, którą otrzymał w roku 1965 za odkrycie informacyjnego RNA i wyjaśnienie mechanizmu regulacji działania genów.

Elie Leo Wollman (1917 - 2008)

Francuski genetyk, pionier w   dziedzinie genetyki drobnoustrojów oraz rozwoju   biologii molekularnej.

W swoim laboratorium w Instytucie Pasteura w Paryżu Wollman odegrał kluczową rolę w wyjaśnieniu organizacji genetycznego materiału. Opracował metodę eksperymentalną, która przyczyniła się do mapowania genów chromosomów bakteryjnych. 

Analiza metodologiczna

Inspiracje do badań:

Wykorzystane metody/przyrządy naukowe:

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

72

Page 73: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Znaczenie eksperymentu/badań dla nauki

Genetyka – kontynuacja i rozwój

Teoria Morgana i jej założenia

Thomas Hunt Morgan (1866 - 1945 w Pasadenie) – amerykański biolog, genetyk, twórca chromosomowej teorii dziedziczności, laureat Nagrody Nobla w dziedzinie fizjologii i medycyny w 1933 roku. Profesor zoologii na Uniwersytecie Columbia, powtórny odkrywca dziedziczenia chromosomowego.

Thomas Morgan udowodnił, że nośnikami genów są chromosomy. W 1908 roku Morgan zaczął eksperymenty na wywilżnie karłowatej. W 1915 roku wraz z zespołem współpracowników opublikował chromosomową teorię dziedziczności, a w 1926 roku teorię genów.

Thomas H. Morgan to amerykański genetyk, który opracował teorię dziedziczności. Obiektem jego badań była muszka owocowa Drosophila melanogaster. Na ich podstawie Morgan wykazał, że geny są czynnikami dziedziczności i mieszczą się one w chromosomach leżących w jądrach komórkowych. Geny te ułożone są w sposób liniowy, w ustalonym porządku i sekwencji. Każdy z nich posiada w chromosomie konkretne miejsce i jest to tzw. locus.

Również allele, czyli inne formy jednego genu leżą naprzeciw siebie w chromosomach pochodzących od matki i od ojca (chromosomy homologiczne).

Czynniki genowe ulegają kopiowaniu. Potomne geny są takie same jak geny wyjściowe, co wiąże się z replikacją kwasu DNA ( replikacja semikonserwatywna).

Geny leżące w jednym chromosomie są sprzężone, zaś te, które leżą w oddzielnych chromosomach - nie sprzężone.

Morgan odwoływał się w swych badaniach do jednego z praw Mendla, które mówi o dziedziczeniu niezależnym cech. Doszedł on do wniosku, że niezależnie dziedziczone są te geny, które znajdują się w innych chromosomach i nie są sprzężone, bo wtedy mogą one klasyfikować do każdej z gamet. Według niego geny sprzężone dziedziczyć się powinny razem, lecz czasem dziedziczą się one niecałkowicie.

Do tego dochodzi zjawisko crossing-over. Polega ono na wymianie odcinków chromatyd, kiedy to dwa chromosomy homologiczne koniugują ze sobą w czasie mejozy. Geny z chromosomu ojcowskiego mogą przejść do chromosomu matczynego lub odwrotnie. Dochodzi wtedy do rekombinacji genetycznej, czyli wymiany genów.

73

Page 74: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Częstość występowania crossing-over jest uzależniona od położenia, jakie zajmują w chromosomie geny. Jeżeli leżą one koło siebie, wtedy częstość zachodzenia tego zjawiska jest nieznaczna, ale gdy leżą oddalone od siebie w chromosomie, to ta częstość wzrasta.

W zależności od częstości zachodzenia crossing-over, można określić genowe rozmieszczenie w chromosomach. Na podstawie tego położenia można wykonać mapy chromosomów. Dokonano już zmapowania chromosomów kukurydzy, muszki owocowej oraz część kariotypu człowieka.

Analiza metodologiczna

Inspiracje do badań:

Wykorzystane metody/przyrządy naukowe:

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Wcześniejsze badania z danej dziedziny

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie eksperymentu/badań dla nauki

74

Page 75: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Najnowsze osiągnięcia genetyki: od praw dziedziczenia do ludzkiego genomu

Wiedza, iż istoty żywe dziedziczą cechy po swoich rodzicach była stosowana od

czasów prehistorycznych w celu poprawy wielkości plonów oraz uzyskiwania lepszych

odmian zwierząt poprzez hodowlę selektywną. Nowoczesna genetyka stara się zrozumieć

proces dziedziczenia, a za jej prekursora uważa się niemiecko-czeskiego zakonnika i

naukowca Grzegorza Mendla, który w 1866 roku po raz pierwszy opisał podstawowe prawa

dziedziczenia cech.

W czasach Mendla podstawową teorią dziedziczenia była teoria mieszanego

dziedziczenia. Polega ona na tym, że jednostki dziedziczą różny kompleks cech po swoich

rodzicach. Prace Mendla obaliły tę teorię pokazując, że cechy są raczej kombinacją różnych

genów niż stałym ich kompleksem. Inna teoria, która ówcześnie była dość popularna, mówiła

o dziedziczeniu przyswojonych cech, tj. jednostki dziedziczą cechy wzmocnione przez ich

rodziców. Teoria ta (zazwyczaj kojarzona z Jean-Baptiste de Lamarck) jest obecnie uważana

za nieprawdziwą – doświadczenia jednostek nie mają wpływu na geny, które dziedziczą ich

dzieci.

Po ponownym odkryciu prac Mendla naukowcy starali się określić, które molekuły w

komórkach były odpowiedzialne za dziedziczenie. W 1910 roku Thomas Hunt Morgan,

bazując na obserwacjach udowodnił, że geny mają związek z chromosomami. W 1913 roku

jego student Alfred Sturtevant użył fenomenu genetycznego łączenia, aby pokazać, że geny są

rozmieszczone liniowo na chromosomach.

Genetyka molekularna

Pomimo, iż było wiadomo, że geny egzystują w chromosomach a chromosomy składają się z

białek (zasadowych histonów, które tworzą strukturę oktanową) i DNA, uczeni nie wiedzieli,

które elementy są odpowiedzialne za dziedziczenie. W 1928 roku Frederick Griffith odkrył

fenomen transformacji polegający na tym, że martwa bakteria mogła przenieść materiał

genetyczny, aby „przetransformować” inną wciąż żyjącą bakterię. 16 lat później w 1944

roku Oswald Theodore Avery, Colin McLeod i Maclyn McCarty zidentyfikował molekułę

odpowiedzialną za transformację – było to DNA. Eksperyment przeprowadzony w 1952 roku

przez Hershey–Chase także pokazał, że DNA jest materiałem genetycznym wirusów, które

zarażają bakterie, dostarczając dalszych dowodów, że DNA jest molekułą odpowiedzialną za

dziedziczenie.

75

Page 76: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Strukturę DNA określili w 1953 roku James D. Watson i Francis Crick. Wykazali, że

DNA ma strukturę spiralną (model podwójnej spirali z dwoma włóknami DNA). Taka

struktura pokazywała, że informacja genetyczna istnieje w sekwencji nukleotydów na

każdym włóknie DNA i sugerowała łatwą metodę duplikacji: jeśli włókna są oddzielone,

nowe włókna mogą być zrekonstruowane na podstawie sekwencji starych włókien.

Pomimo, iż struktura DNA wskazywała na to, jak funkcjonuje dziedziczenie, w

dalszym ciągu nie wiadomo było jak DNA wpływa na zachowanie komórek. W kolejnych

latach naukowcy próbowali zrozumieć, jak DNA kontroluje proces produkcji białek. Odkryto,

że komórki używają DNA jako szablonu do tworzenia nici RNA (molekuły z nukleoidami,

bardzo podobnej do DNA) w procesie zwanym transkrypcją. Sekwencja nukleotydowa nici

RNA jest używana w celu tworzenia sekwencji aminokwasów w białku w procesie translacji.

Przekład między nukleotydami a sekwencjami aminokwasów w białku jest znany jako kod

genetyczny.

W 1977 roku Frederick Sanger odkrył terminację łańcucha sekwencjonowania DNA.

Ta technologia pozwala naukowcom czytać sekwencje nukleotydową cząsteczki DNA. W

1983 roku Kary Banks Mullis odkrył reakcje łańcucha polimerazy, dostarczając łatwego

sposobu na izolację i wzmocnienie specyficznej sekcji DNA z mieszanki. Dzięki wspólnemu

wysiłkowi w ramach projektu Human Genome Project i jednoczesnych wysiłków Celera

Genomics te oraz inne badania osiągnęły szczyt w sekwencjonowaniu ludzkiego genomu w

roku 2003.

Gen (gr. γένος – ród, pochodzenie) – podstawowa jednostka dziedziczności determinująca powstanie jednej cząsteczki białka lub kwasu rybonukleinowego zapisana w sekwencji nukleotydów kwasu deoksyrybonukleinowego.

Termin „gen” wprowadził duński botanik Wilhelm Johannsen w 1909 roku, kiedy nie zdawano sobie jeszcze sprawy ze sposobu, w jaki działa DNA. W pierwotnym znaczeniu termin ten odnosił się więc do abstrakcyjnej jednostki dziedziczenia, warunkującej występowanie w organizmie (i przekazywanie potomstwu) jakiejś prostej, elementarnej cechy, np. określonej barwy oczu, barwy kwiatów, odporności albo podatności na jakąś chorobę.

Fragment DNA zawiera informacje pozwalającą komórce na syntezę RNA. Poszczególne rodzaje ogromnie zróżnicowanych cząsteczek mRNA zakodowane są w różnych genach).

Typowe geny zawierają informacje o tym:

76

Page 77: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

1. jak zbudować jakieś białko (tzn. w jakiej kolejności połączyć aminokwasy w ciągły łańcuch)

2. w jakich okolicznościach (warunkach) należy to białko tworzyć3. z jaką intensywnością i przez jaki czas należy je wytwarzać4. do jakiego przedziału komórki je przesyłać (np. do mitochondriów czy do wakuoli)5. u organizmów tkankowych także informację o tym, w których tkankach, w jakiego

typu komórkach dany produkt ma powstawać.

Genom –zespół genów zawarty w pojedynczym (haploidalnym) zestawie chromosomów znajdującym się w jądrze komórkowym. Organizmy diploidalne posiadają dwa genomy w jądrach swoich komórek somatycznych, pochodzące z gamety żeńskiej i męskiej, organizmy poliploidalne mogą posiadać do kilkuset genomów. Organizmy niższe często bywają haploidalne.

Termin mylony jest z genotypem, czyli całością informacji genetycznej zawartej w chromosomach organizmu.

Molekularna podstawa dziedziczenia

Molekularną podstawą genów jest kwas deoksyrybonukleinowy (DNA). DNA jest zbudowane z łańcucha nukleotydów, które dzielą się na cztery rodzaje: adenina (A),cytozyna (C), guanina (G), tymina (T). Informacja genetyczna znajduje się w sekwencji tych nukleotydów i geny egzystują jako odcinki sekwencji wzdłuż pierścienia DNA. Wirusy są jedynym wyjątkiem tej zasady – czasem wirusy wykorzystują uproszczoną w budowie cząsteczkę RNA zamiast DNA jako ich materiał genetyczny.

Zazwyczaj DNA występuje jako cząsteczka o podwójnym włóknie skręcona w kształt podwójnej spirali. Każdy nukleotyd w DNA specjalnie pasuje do drugiego nukleotydu po drugiej stronie: A pasują do T, a C pasują do G. Tak więc w formie z dwoma włóknami każde włókno zawiera wszystkie niezbędne informacje. Taka struktura DNA jest fizyczną bazą dziedziczności: replika DNA kopiuje informację genetyczną poprzez rozczepienie włókien i użycie każdego włókna jako szablonu do syntezy nowego włókna.

Sekwencja badań naukowych zwieńczona sukcesem. Milowe kroki w rozwoju genetyki

- 1859 Karol Darwin publikuje O powstawaniu gatunków.

- 1865 Grzegorz Mendel upowszechnia Badania nad mieszańcami roślin.

- 1900 ponowne odkrycie zasad dziedziczenia, niezależnie, przez Corrensa, Tschermaka i de Vriesa.

77

Page 78: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

- 1903 Hugo de Vries odkrywa mutacje.

- 1903 odkrycie, że za proces dziedziczenia odpowiedzialne są chromosomy, niezależnie przez: Waltera Suttona i Theodora Boveri.

- 1910 odkrycie, że chromosomy składają się z genów.

- 1913 pierwsza mapa genowa ukazuje geny ułożone liniowo na chromosomie – Alfred H. Sturtevant i Thomas Morgan.

-1915 chromosomowa teorię dziedziczności –Thomas Morgan wraz z zespołem współpracowników

-1926 teoria genów –Thomas Morgan

- 1927 zmiany fizyczne w obrębie chromosomów zostają skorelowane z mutacjami – Thomas Morgan.

- 1928 Frederick Griffith odkrywa transformację.

- 1931 Odkrycie, że Crossing over jest przyczyną rekombinacji.

Crossing-over – proces wymiany materiału genetycznego między chromosomami homologicznymi, w wyniku którego zwiększa się zmienność genetyczną. Odkrywcą procesu crossing-over był Thomas Morgan.

- 1944 Oswald Theodore Avery, Colin McLeod i Maclyn McCarty otrzymują wynik sugerujący, że to DNA, a nie białka, jest nośnikiem dziedziczności w eksperymencie Griffitha.

- 1944 Erwin Schrödinger, na podstawie czysto teoretycznych rozważań, proponuje molekularny mechanizm dziedziczności, tzw. kryształ aperiodyczny. W przyszłości zostało potwierdzone, że DNA ma właściwości przewidziane przez Schrödingera.

- 1950 zasada Chargaffa: ilość adenin w DNA równa się ilości tymin, ilość guanin równa się ilości cytozyn. Odkrycie to miało fundamentalne znaczenie dla oznaczenia struktury DNA.

- 1952 Martha Chase i Alfred Hershey potwierdzają, że DNA jest nośnikiem dziedziczności.

- 1953 James Watson i Francis Crick, bazując na danych dyfrakcji promieni X otrzymanych przez Rosalind Franklin i zasadzie Chargaffa rozwiązują strukturę przestrzenną DNA. Model ten w naturalny sposób implikuje molekularny mechanizm dziedziczności.

78

Page 79: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

- 1961 odkrycie zasad kodu genetycznego przez Holley'a, Khoranę i Nirenberga.

- 1977 opracowanie metody sekwencjonowania DNA przez zespoły badawcze Waltera Gilberta i Fredericka Sangera.

- 1986 Walter Gilbert i James Watson proponują ideę zsekwencjonowania genomu człowieka. Gilbert, argumentując, że technologia sekwencjonowania DNA rozwija się z prawem Moore’a, przewiduje, że genom zostanie zsekwencjonowany około roku 2000.

- 1997 sekwencjonowanie pierwszego genomu.

- 2000; 18 maja Nature publikuje artykuł zawierający dokładne dane na temat budowy chromosomu 21 u człowieka.

- 2001 powstają pierwsze szkice sekwencji ludzkiego genomu w wyniku rozpoczęcia prac Human Genome Project.

- 2003 międzynarodowe konsorcjum naukowców ogłosiło oficjalne zakończenie prac nad poznaniem genomu ludzkiego.

Analiza metodologiczna

Inspiracje do badań:

Wykorzystane metody/przyrządy naukowe:

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Wcześniejsze badania z danej dziedziny

79

Page 80: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Teorie odrzucone w wyniku badań/eksperymentu

Wkład w rozwój terminologii i praw badanej dyscypliny

Znaczenie eksperymentu/badań dla nauki

80

Page 81: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Nauki formalne

Logika i matematyka

MatematykaZnaczenie matematyki

Matematyka już w najdawniejszych czasach była ważnym narzędziem człowieka w działalności praktycznej, zwłaszcza w handlu, administracji i budownictwie. Później - z chwilą powstania odpowiednich nauk przyrodniczych - stała się fundamentem astronomii, fizyki, chemii i techniki. Z tego względu cywilizacyjna doniosłość matematyki nie była nigdy poważnie kwestionowana. Sama zaś nazwa matematyki - wywodząca się od greckiego słowa μάϑημα znaczącego tyle co po prostu nauka, wiedza, poznanie - podkreślała z dumą wysoką godność i wielkość tej dyscypliny.

W ostatnich dziesięcioleciach nastąpił jeszcze dalszy - i to ogromny - wzrost znaczenia matematyki.

Trzy okresy w historii matematyki Jeśli spojrzeć na matematykę od strony metodologicznej, to w jej dziejach należy wyróżnić trzy wielkie okresy: okres pierwszy, trwający mniej więcej do końca V wieku p.n.e., okres drugi, trwający mniej więcej od początku IV wieku p.n.e. do końca XIX wieku, i okres trzeci, współczesny, który rozpoczął się niemal na progu obecnego stulecia.

Pierwszy z tych okresów, niejako przygotowawczy, dał nam matematykę stosunkowo prymitywną, ograniczającą się w zasadzie do rozwiązywania różnych konkretnych - chociaż często dość skomplikowanych - zadań. Reguły ogólne - jeśli nawet zostały dostrzeżone - nie były ani wyraźnie formułowane ani - co istotniejsze - w sposób ogólny uzasadniane.

Elementy Euklidesa

W drugim z wyróżnionych powyżej okresów matematyka zmieniła swój charakter w sposób zasadniczy. Przestała ona być rozwiązywaniem konkretnych zadań a przybrała postać ciągu definicji, twierdzeń i dowodów, czyli stała się zorganizowanym wewnętrznie systemem.

Sztandarowym dziełem matematyki tego okresu były słynne Elementy Euklidesa. Napisane około 300 r. p.n.e. były tysiące razy przepisywane, drukowane, tłumaczone na różne języki, przerabiane, „poprawiane”, powszechnie studiowane i podziwiane. Do począt-

81

Page 82: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

ków XIX w. były podręcznikiem dla uczącej się młodzieży, a do końca tegoż wieku były nieodzowną lekturą zawodowych matematyków. „Znam Euklidesa od trzynastego czy czternastego roku życia i podziwiam go” - pisał R. Dedekind w 1876 r., a podobnie mogliby pisać inni matematycy tego czasu.

Powodów, dla których Elementy Euklidesa zdobyły taką pozycję w nauce, było kilka. Po pierwsze, stanowiły one podsumowanie (z niewielkimi wyjątkami) dotychczasowego rozwoju matematyki oraz przynosiły nowe wyniki uzyskane przez ich autora. Była to więc encyklopedyczna synteza. Po drugie, autor Elementów oparł swój system matematyki na wyraźnie opisanych podstawach aksjomatycznych, których nie umiano ani istotnie poszerzyć, ani w jakikolwiek inny sposób ulepszyć przez dwa tysiąclecia. Po trzecie, dowody j podawane przez Euklidesa odznaczały się tak wielką ścisłością i taką elegancją, że stanowiły wzorzec do naśladowania aż po wiek XIX.

Dzięki tym zaletom Elementy ustanowiły niejako ramy i wzorzec dla przyszłego rozwoju matematyki. Był to autentyczny paradygmat matematyki. Stanowił on bazę rozwoju matematyki aż po próg naszego stulecia. I nie ma chyba lepszej nazwy dla niego niż ta oto: paradygmat Euklidesa. Oczywiście, termin „paradygmat” został tu użyty w sensie zbliżonym do tego, który nadał mu T. S. Kuhn na terenie metodologii nauk empirycznych.

Geometria Euklidesa i geometrie nieeuklidesowe

Od oczywistości do aksjomatyzacji

1. Matematyczny system geometrii Euklidesa

Arystoteles o metodzie matematyki

Według Arystotelesa każda nauka jest zespołem zdań o przedmiotach jakiegoś jednego, określonego rodzaju. Jaki to rodzaj - o tym decydują pojęcia takiej nauki. Pojęcia te dzielą się na podstawowe i pochodne. Przykładami pojęć podstawowych dla geometrii są punkt i prosta, przykładem zaś pojęcia pochodnego jest trójkąt. Wszystkie pojęcia (i podstawowe i pochodne) mogą i powinny być zdefiniowane..

Definicje - według Arystotelesa - to tylko jeden rodzaj naczelnych zasad nauki dedukcyjnej. Prócz nich istnieją jeszcze dwa inne rodzaje zasad: hipotezy i aksjomaty. I jedne i drugie są zdaniami niedowodliwymi; stanowią one ostateczne przesłanki nauki. Ale aksjomaty są zasadami wspólnymi dla wszystkich nauk i wszystkich ludzi. Każdy, kto coś poznaje, kto czegoś się uczy, musi je posiadać. Ale też są one najoczywistsze i najpewniejsze ze wszystkich zasad. Jako przykłady aksjomatów podaje Arystoteles prawo sprzeczności (Met. IV, 3, 1005b) oraz zasadę: „równe odjęte od równego daje resztę równą” (An. post. 1,10, 76a).

Elementy Euklidesa

Kiedy mniej więcej ćwierć wieku po śmierci Arystotelesa Euklides pisał Elementy, postępował przy budowie swojego systemu matematyki niemal dokładnie tak, jak to teoretycznie opisywał Arystoteles. Elementy są obszernym dziełem, złożonym z trzynastu

82

Page 83: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

ksiąg o różnych długościach. Nie ma tu potrzeby bliższego omawiania zawartości Elementów - robią to podręczniki historii matematyki. Warto natomiast przyjrzeć się fundamentom, na których Euklides oparł gmach swojej matematyki. oraz sposobom prowadzenia przez niego dowodów twierdzeń. Fundamenty systemu Euklidesa przedstawione są w księdze I, na samym początku dzieła. Zgodnie ze schematem Arystotelesa składają się na nie trzy grupy zasad. Grupę pierwszą stanowią definicje.

A oto naczelne definicje Elementów:

1. Punktem jest to, co nie ma części.2. Linia jest to długość bez szerokości.3. Kresami linii są punkty.4. Prosta to linia jednakowo położona względem punktów na niej leżących.5. Powierzchnią jest to, co ma tylko długość i szerokość.6. Kresami powierzchni są linie.7. Płaszczyzna to powierzchnia jednakowo położona względem prostych na niej

leżących.

8. Kąt płaski jest to wzajemne nachylenie dwóch linii schodzących sięw płaszczyźnie, ale nie położonych wzdłuż prostej.

9. Gdy linie zawierające kąt są proste, to kąt nazywany prostoliniowym.10. Gdy prosta wystawiona na prostej tworzy kąty przyległe równe między

sobą, to każdy z tych równych kątów jest prosty, a wystawioną prostą nazywamyprostopadłą do tej, na której została wystawiona.

11. Kąt rozwarty to kąt większy od kąta prostego.12. Kąt ostry to kąt mniejszy od kąta prostego.13. Granicą jest to, co jest czegoś kresem.14. Figurą jest to, co się zawiera wewnątrz jakiejś granicy lub jakichś granic.15. Koło jest figurą płaską objętą jedną linią taką, że wszystkie proste poprowadzone do

niej z pewnego jednego punktu położonego wewnątrz figury są równe.16. Ów zaś punkt nazywa się środkiem koła.17. Średnica koła to dowolna prosta przechodząca przez środek i kończąca się z obu

stron na okręgu koła, i która dzieli koło na dwie równe części.18. Półkole to figura ograniczona średnicą i łukiem przez nią odciętym; jednak

środek półkola jest ten sam co i koła.19. Figurami prostoliniowymi są te, które są objęte liniami prostymi, trójbokami - te,

które trzema, czworobokami - te, które czterema, wielobokami- te, które więcej niż czterema prostymi są objęte.

20. Spośród trójboków trójkątem równobocznym jest taki, który ma swoje trzy boki równe; trójkątem równoramiennym taki, który ma tylko dwa boki równe; trójkątem ukośnym taki, który ma trzy swoje boki nierówne.

21. Ponadto spośród trójboków trójkątem prostokątnym jest taki, który ma kąt prosty; trójkątem rozwartokątnym taki, który ma kąt rozwarty; natomiast trójkątem ostrokątnym taki, który ma trzy kąty ostre.

22. Spośród czworoboków kwadratem jest taki, który zarazem jest równoboczny i prostokątny; rombem jest taki, który jest równoboczny, ale nie prostokątny; romboidem jest taki, który ma przeciwległe boki i przeciwległe kąty równe, ale nie jest ani równoboczny, ani

83

Page 84: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

prostokątny; pozostałe zaś czworoboki, oprócz tych (wyżej wymienionych), będą się nazywały czworobokami nierównobocznymi.

23. Liniami równoległymi są takie linie, które leżą na tej samej płaszczyźnie i które przedłużane z obu stron w nieskończoność, z żadnej strony się nie zetkną.

Z dzisiejszego punktu widzenia definicje te można dość wyraźnie podzielić na dwie grupy: do jednej z nich należy zaliczyć te definicje, które w istocie są tylko intuicyjnymi objaśnieniami j pojęć pierwotnych, do drugiej zaś te, które rzeczywiście są wystarczająco poprawnymi określeniami pojęć geometrycznych.

Postulaty

Drugą grupę zasad sformułowanych na początku Elementów stanowią postulaty Jest ich pięć. W dosłownym tłumaczeniu brzmią one następująco:

1. Zakłada się, że od każdego punktu do każdego punktu można poprowadzić linię prostą.2. I że ograniczoną prostą można ciągle przedłużać po prostej.3. I że z każdego środka każdym rozwarciem można zakreślić koło.4. I że wszystkie kąty proste są równe między sobą.5. I jeżeli prosta przecinając dwie proste tworzy z nimi po jednej stronie kąty wewnętrzne o

sumie mniejszej niż dwa kąty proste, to te dwie proste przedłużane nieograniczenie przecinają się po tej stronie, po której znajdują się owe kąty o sumie mniejszej od dwóch kątów prostych.

Postulat o równoległych

Szczególną rolę w badaniach nad podstawami aksjomatycznymi geometrii odegrał piąty postulat Euklidesa. Od samego początku wydawał się on matematykom zbyt skomplikowany, a w każdym razie różny pod tym względem od pozostałych postulatów, podobny raczej do twierdzenia. Usiłowano go więc udowodnić. Ale żadne wysiłki w tym kierunku nie dawały pożądanego rezultatu. W najlepszym razie postulat ten zastępowano innym sformułowaniem, czasem odrobinę prostszym, a zawsze równoważnym pierwotnemu. Największą sławę zdobyło następujące sformułowanie podane u schyłku starożytności przez Proklosa (410 - 485), filozofa neoplatonika i znakomitego komentatora Euklidesa:

Przez punkt nie leżący na danej prostej, ale w płaszczyźnie wyznaczonej przez ów punkt i tę prostą, można poprowadzić tylko jedną prostą nie przecinającą tej danej.

Aksjomaty

Trzecią grupę zasad przyjętych w Elementach stanowiły tzw. myśli wspólne (koinai ennoiai). Oto one:1. Równe jednemu i temu samemu są między sobą równe.

2. I jeżeli do równych dodaje się równe, to i całe są równe.3. I jeżeli od równych odejmuje się równe, to reszty są równe.4. I wzajemnie przystające są między sobą równe.5. I całe jest większe od części.

Już starożytni komentatorzy, np. Proklos (410 -485 n.e.), byli przekonani, że te „myśli wspólne” to po prostu aksjomaty w sensie Arystotelesa.

84

Page 85: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Wpływ Euklidesa

Rola dzieła Euklidesa w ciągu przeszło dwóch tysiącleci była ogromna. Najogólniej i najdobitniej chyba oddał ją w słowach A. Einstein, kiedy napisał o Elementach: „Ten najbardziej zdumiewający produkt myśli dał ludzkiemu rozumowi tę wiarę w siebie, która była niezbędna dla jego dalszej działalności”. Ujmując rzecz bardziej konkretnie, można stwierdzić, że rola tego dzieła była dwojaka: z jednej strony było to niezastąpione źródło wiedzy matematycznej, swoista „podręczna księga każdego poważnego matematyka”, z drugiej zaś był to niedościgły wzorzec dowodzenia i budowania nauki, i to nauki w ogóle, nie tylko matematyki.

Euklides

2. Geometria nieeuklidesowa

85

Page 86: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Szczególną rolę w dochodzeniu matematyki do współczesnej postaci odegrały dziewiętnastowieczne badania w zakresie geometrii, a zwłaszcza odkrycie geometrii nieeuklidesowej. Odkrycie to było związane z badaniami nad piątym postulatem Euklidesa. Prekursorem był tu przede wszystkim matematyk wioski G. Saccheri (1667 - 1733). Za podstawę swoich wywodów przyjął on wszystkie aksjomaty i cztery pierwsze postulaty Euklidesa oraz 26 początkowych twierdzeń pierwszej księgi Elementów. (Twierdzenia te nie zależą od piątego postulatu). Następnie Saccheri rozważa czworobok o dwóch kątach prostych przy podstawie AB i o równych bokach AC i BD. O boku CD i kątach γ i δ leżących przy nim (γ kąt ACD, δ kąt BDC) niczego nie zakłada. (rys. 1) W prosty sposób dowodzi, że kąty γ i δ są równe. Zachodzi jednak pytanie, jakie są to kąty? Możliwe są trzy ewentualności. „Pierwszą - pisze Saccheri - będę nazywał hipotezą kąta prostego, drugą - hipotezą kąta rozwartego, trzecią - hipotezą kąta ostrego”. [cyt. za antologią D. E. Smitha (1929, s. 355)]. Ale pierwsza z tych hipotez jest prawdziwa wtedy i tylko wtedy, gdy prawdziwy jest piąty postulat Euklidesa. Druga zachodzić nie może, bo prowadzi do absurdu. Aby zatem udowodnić piąty postulat, trzeba jeszcze obalić hipotezę kąta ostrego. (…).

C D

γ δ

A B

(rys. 1)

Niekwestionowany priorytet w dziedzinie stworzenia geometrii nieeuklidesowej należy do rosyjskiego matematyka M. Łobaczewskiego (1792 – 1856). Już w 1829 r. opublikował on obszerną rozprawę O podstawach geometrii (w języku rosyjskim), w której przedstawił pierwszy zarys swojej śmiałej i oryginalnej koncepcji. W późniejszych latach ogłosił cały szereg dalszych prac, rozwijających tę - jak ją nazywał – geometrię urojoną.

Łobaczewski bardzo wcześnie doszedł do przekonania, że piątego postulatu nie da się udowodnić za pomocą pozostałych zasad Euklidesa. W związku z tym powziął trafną myśl, że przyjęcie zamiast tego postulatu jakiejś przeczącej mu zasady nie może prowadzić do sprzeczności.

„I to i tamto - pisał w wymienionej wyżej rozprawie - można przyjąć bez jakiejkolwiek sprzeczności w wyniku, wskutek czego powstają dwie Geometrie: jedna, powszechnie używana do tej pory dzięki swojej prostocie, zgadza się ze wszystkimi pomiarami w rzeczywistości; druga, urojona, ogólniejsza i dlatego kłopotliwa w swoich rachunkach, dopuszcza możliwość zależności linii od kątów” [N. L Łobaczewski (1946, s, 193)]. W swojej więc geometrii zamiast piątego postulatu Euklidesa przyjmuje Łobaczewski nowy postulat, niezgodny z tamtym:

86

Page 87: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Przez punkt C nie leżący na prostej AB przechodzi w płaszczyźnie ABC nieskończenie wiele prostych nie przecinających AB. (rys. 2)

Rys. 2

Owe proste nie przecinające prostej AB (takie jak GC i CH na załączonym rysunku) oddalone są od prostych przecinających AB pewnymi dwoma prostymi granicznymi CE i CF, które także nie przecinają AB. Owe proste graniczne nazywa Łobaczewski prostymi równoległymi do AB. Tworzą one z prostą CD prostopadłą do A B jednakowe kąty ω. Kąt ω jest funkcją długości x odcinka CD, czyli tzw. strzałki, i nazwa się kątem równoległości odpowiadającym strzałce x.

Twierdzenia geometrii Łobaczewskiego bywają niezwykłe i zaskakujące. Oto np. w geometrii tej suma kątów dowolnego trójkąta jest mniejsza od dwóch kątów prostych; nie ma figur podobnych a nie przystających; w niektórych trójkątach wysokości się nie przecinają; odległość pomiędzy dwiema nieprzecinającymi się prostymi nie jest stała; w płaszczyźnie Łobaczewskiego nie istnieje żaden prostokąt; nie przez każde trzy punkty nie leżące na jednej prostej można poprowadzić okrąg.

Początkowo prace Łobaczewskiego nie wywołały żadnego oddźwięku, podobnie jak słynny Appendix z roku 1832 J. Bolyai (1802 - 1860), który zawierał podobne pomysły. Sytuacja zmieniła się dopiero po roku 1860, kiedy z opublikowanej pośmiertnie korespondencji K. F. Gaussa świat matematyczny dowiedział się, że i ten wybitny uczony próbował wkraczać na ścieżki geometrii nieeuklidesowej. Już w 1868 roku ukazują się trzy prace o fundamentalnym znaczeniu dla dalszego rozwoju geometrii i dla głębszego rozumienia jej podstaw. Geometria nieeuklidesowa znalazła już wtedy swoje trwałe miejsce w matematyce. Zarazem zaś był to znak, że zmienia się natura samej matematyki.

3. Aksjomatyzacja geometrii

Zwróćmy wszakże uwagę, że dzieła wykładające geometrię nieeuklidesową pod względem metodologicznym wcale nie stały wyżej od Elementów Euklidesa. Istnienie obu tych rodzajów geometrii obok siebie wskazywało jednak niedwuznacznie, że w tej dziedzinie nie można już mieć zaufania do intuicji, że potrzebna tu jest dokładna specyfikacja zasad naczelnych i ścisła dedukcja. Problem pełnej aksjomatyzacji różnych systemów geometrii stawał się w tej sytuacji tak aktualny jak nigdy przedtem. Toteż został on podjęty i to równocześnie przez kilku matematyków. Największy sukces odniósł tutaj matematyk niemiecki M. Pasch (1843 - 1930). W swoich badaniach Pasch kierował się przekonaniem, że naczelne pojęcia i zasady geometrii winny być czerpane z doświadczenia, ale dalsza budowa geometrii - po ustaleniu zasad - winna być dedukcją w najściślejszym tego słowa znaczeniu.

87

Page 88: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

„Skoro tylko - pisał - geometria ma być rzeczywiście dedukcyjna, proces wyprowadzania wniosków musi być niezależny zarówno od znaczenia pojęć geometrycznych, jak i od rysunków. Jedynymi rzeczami, które się liczą, są związki pomiędzy pojęciami geometrycznymi ustalone w użytych twierdzeniach względnie definicjach”. [M. Pasch (1882, s. 98)].

Tak zarysowany program Pasch zrealizował z całą skrupulatnością. Miał on jednak swoje wady ! To zadecydowało, że znalazł on kontynuatorów, najpierw w osobach G. Peana i jego uczniów (G. Fano, M. Pieri), a następnie D. Hilberta (1862 - 1943). Ten ostatni tak dalece zaćmił wszystkich swoich poprzedników, ze dziś mało kto już o nich pamięta; jego zaś książka Grundlagen der Geometrie (1899) stała się natychmiast pozycją klasyczną. Pierwszy rozdział swej książki rozpoczyna Hilbert następującymi zdaniami:

„Przedstawiamy sobie trzy rodzaje rzeczy: rzeczy pierwszego rodzaju nazywamy punktami i oznaczamy [literami] A, B, C, ... ; rzeczy drugiego rodzaju j nazywamy prostymi i oznaczamy [literami] a, b, c, rzeczy trzeciego rodzaju j nazywamy płaszczyznami i oznaczamy [literami] α, β, γ, ... [...]. Punkty, proste i płaszczyzny przedstawiamy sobie w określonych stosunkach wzajemnych i oznaczamy te stosunki takimi słowami, jak: leżeć na, między, równoległy, przystający, ciągły; ścisły i dla celów matematycznych pełny opis tych stosunków osiąga się w aksjomatach geometrii”.

Zdania powyższe są powszechnie cytowane w literaturze omawiającej dzieło Hilberta. Widzi się w nich dowód, ze stanowisko Hilberta jest od początku abstrakcyjne i radykalnie przeciwstawne nie tylko stanowisku Pascha, który swoje podstawowe pojęcia wywodził z doświadczenia i starał się nie postulować więcej niż jest zagwarantowane przez doświadczenie, ale także stanowisku Kanta, Riemanna, Helmholtza i Kleina, którzy zawsze wiązali geometrię z rzeczywistością empiryczną. „Więzy z rzeczywistością - pisze o Hilbertowskim podejściu H. Freudenthal (1962, s .618)- zos ta ły przec ię te . Geometria stała się czystą matematyką. Zagadnienie, czy i jak stosować ją do rzeczywistości, jest takie samo w geometrii jak i w innych działach matematyki. Aksjomaty nie są oczywistymi prawdami. Nie są one w ogóle prawdami w zwykłym znaczeniu”.

Posługując się przytoczonymi wyżej terminami i symbolami Hilbert wprowadza następnie aksjomatyzację (20 aksjomatów) swojej geometrii:

1) Aksjomaty łączenia – 8

2) Aksjomaty uporządkowania – 4, w tym tzw. aksjomat Pascha

3) Aksjomaty przystawania – 5

4) Aksjomat o równoległych (Euklidesa)

5) Aksjomat ciągłości (Archimedesa), oraz tak zwany

6) Aksjomat zupełności (Axiom der Vollständigkeit)

Dzieło Hilberta odegrało ogromną rolę w ukształtowaniu się nowego, dwudziestowiecznego paradygmatu matematyki, w którym pełna aksjomatyzacja odgrywa zasadniczą rolę. Różnica pomiędzy układem postulatów Euklidesa i aksjomatyką Hilberta jest uderzająca. Już same liczby postulatów u jednego i aksjomatów u drugiego są wymowne, ale znacznie ważniejsza jest ta swoista drobiazgowość aksjomatów Hilberta, dzięki której dopiero każdy problem geometryczny jest

88

Page 89: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

naprawdę rozstrzygnięty przez te aksjomaty. Dodatkową zasługą Hilberta było podzielenie wszystkich aksjomatów na grupy i wyświetlenie roli poszczególnych grup w całości systemu, a następnie wykazanie względnej niesprzeczności i niezależności aksjomatów. Wszystko to razem dawało wrażenie niespotykanej dotąd głębi wykładu i decydowało o wpływie książki na matematykę XX wieku. A wpływ ten był rzeczywiście duży. W krótkim czasie …, nasiliły się natomiast dążenia do aksjomatyzacji wszystkich teorii matematycznych. Jednym z najważniejszych wyników tych dążeń były różne aksjomatyzacje teorii mnogości.

Tadeusz Batóg Dwa paradygmaty matematyki, ss. 9 – 44 (wybór)

Analiza metodologiczna

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Osiągnięty wynik

Teorie odrzucone

Znaczenie nowej teorii dla nauki

Ku nowemu paradygmatowi - teoria mnogości

Podstawy matematyki i logiki Z rozwojem logiki łączy się ściśle rozwój teorii mnogości. Teoria mnogości powstawała, jak się zdaje, w sposób podobny jak logika. Do połowy XIX wieku, wystarczała sylogistyka i algebra Boole’a jako jedyna ogólna nauka o zbiorach. Dopiero badania z podstaw analizy matematycznej ujawniły potrzebę odróżniania dużej ilości rozmaitych zbiorów, relacji i funkcji. Stąd w drugiej połowie XIX wieku, głównie dzięki pracom G. Cantora (1845-1918), powstała osobna nauka badająca zbiory, relacje i funkcje w najogólniejszym sensie. Jest nią teoria mnogości.*/* Słowo „mnogość” ma ten sam sens, co słowo „zbiór”. Można by więc mówić „teoria zbiorów”. Jednakże tradycyjnie przyjęło się w Polsce ogólną teorię zbiorów nazywać teorią mnogości. < koniec przypisu

Teoria ta została w początkach XX wieku ujęta w ścisłe systemy w kilku wersjach. Uściślenie swe zawdzięcza ogólnemu pędowi do aksjomatyzacji i wszelkiego rodzaju

89

Page 90: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

formalnej doskonałości, jaki panował w końcu XIX wieku, a którego zalążki tkwiły jużw wykładach Cauchy’ego.

Formalizację teorii mnogości przyspieszyły nieco dość liczne, odkryte na przełomie XIX i XX wieku rozumowania antynomialne, powstające w teorii mnogości w łatwy sposób, gdy nie zachowuje się pewnych ostrożności, zbędnych na ogół w innych działach matematyki. Jedną wersję formalizacji teorii mnogości stanowi aksjomatyczna teoria mnogości zainicjowana przez E. Zermelo (1871-1954).

Powstanie teorii mnogości

Dawna matematyka nie posługiwała się pojęciem zbioru; dość wcześnie natomiast zaczęto go używać na terenie tradycyjnej logiki, gdzie mówiono o zakresach i treściach pojęć. Jednak dawna logika robiła stosunkowo niewielki użytek z tych pojęć.

Teorię mnogości (zbiorów) jako samodzielną i dojrzałą dyscyplinę matematyczną stworzył ostatecznie G. Cantor (1845 - 1918), profesor uniwersytetu w Halle.

Dwa były naczelne pojęcia tej nowej dyscypliny: ogólne pojęcie zbioru oraz pojęcie należenia do zbioru (albo elementu zbioru). Głównymi zaś jej działami były: teoria mocy (związana z pojęciami równoliczności zbiorów i liczby kardynalnej) oraz teoria porządków (związana z pojęciami zbioru uporządkowanego, podobieństwa porządków, typu porządkowego i liczby porządkowej).

Liczne szczegółowe wyniki i metody wypracowane przez Cantora weszły na

trwałe do arsenału środków współczesnej matematyki. Wystarczy tu wspomnieć choćby

tylko:

- dowód nieprzeliczalności zbioru liczb rzeczywistych

- dowód przeliczalności zbioru liczb wymiernych

- dowód równoliczności n-wymiarowej przestrzeni euklidesowej Rn z przestrzenią

jednowymiarową R (tzn. z prostą)

- twierdzenie o podobieństwie wszystkich porządków przeliczalnych gęstych bez pierwszych

i ostatnich elementów

- metoda rozumowania w przód i w tył

- metoda przekątniowa

- liczby epsilonowe

- alefy

-zbiór Cantora

- hipoteza kontinuum

- postać normalna liczb porządkowych drugiej klasy.

90

Page 91: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Nie ma potrzeby szczegółowego przedstawiania tutaj wyników Cantora, warto natomiast zwrócić uwagę na podstawy, na których oparł on swoją teorie. Otóż jest charakterystyczne, że - inaczej niż Euklides - nie sformułował on żadnych aksjomatów czy postulatów, natomiast - podobnie jak Euklides – na czele swej teorii postawił definicje głównych pojęć (zbioru, liczby kardynalnej, równoliczności, zbioru uporządkowanego, podobieństwa zbiorów uporządkowanych i typu porządkowego). Poniższe definicje zostały podane w rozprawie Beiträge zur Begründung der transfiniten Mengelehre (I 1895, II 1897), zawierającą systematyzację i podsumowanie wcześniejszych wyników.

Przez ‘zbiór’ rozumiemy każde zebranie w jedną całość M określonych, dobrze odróżnionych przedmiotów m naszej naoczności albo naszego myślenia (które są nazywane ‘elementarni’[zbioru] M).

Każdemu zbiorowi przysługuje pewna określona ‘moc’, którą nazywamy też ‘liczbą kardynalną’.

‘Mocą’ albo ‘liczbą kardynalną’ [zbioru] M nazywamy pojęcie ogólne, które z pomocą naszej aktywnej zdolności myślenia bierze swój początek ze zbioru M w ten sposób, że abstrahuje się od własności jego różnych elementów m i od porządku, w jakim są dane. Wynik tego podwójnego aktu abstrakcji,liczbę kardynalną albo moc [zbioru] M, oznaczamy przez .

Dwa zbiory M i N nazywamy równolicznymi i oznaczamy to jako M ~ N lub: N ~ M, jeśli można między tymi zbiorami ustanowić taką relację, że każdemu elementowi jednego z nich odpowiada jeden i tylko jeden element drugiego. [G. Cantor (1932, ss. 282 - 283)].

Po tych definicjach Cantor formułuje i udowadnia następujące twierdzenie:

= wtedy i tylko wtedy, gdy M ~ N,

Analogiczny charakter mają podstawowe definicje podane przez Cantora w teorii porządków.

Zbiór M nazywamy ‘uporządkowanym’, o ile wśród jego elementów m panuje (herrscht) określony‘porządek wedle rangi’, taki, że z dowolnych dwóch elementów m1 i m2 jeden przyjmuje rangę ‘niższą’ a drugi rangę ‘wyższą’, i taki, że gdy z trzech elementów m1, m2 i m3, powiedzmy m1 jest niższej rangi niż m2, zaś m2 jest niższej rangi niż m3, to wówczas m1 jest niższej rangi niż m3.

Każdy zbiór uporządkowany M ma określony ‘typ porządkowy’ albo krótko określony ‘typ’, który będziemy oznaczali przez ; rozumiemy przez to ogólne pojęcie, które powstaje z M, jeśli abstrahujemy tylko od natury elementów m, a zachowujemy wśród nich porządek wedle rangi.

91

Page 92: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Georg Ferdinand Ludwig Philipp Cantor (1845 - 1918 ) – niemiecki matematyk

Inspiracje

Pierwsze prace Cantora dotyczyły teorii liczb. Do stworzenia teorii mnogości doprowadziły go prowadzone przez niego badania dotyczące szeregów trygonometrycznych. Cantor zetknął się w nich z nieskończonymi zbiorami punktów i zwrócił uwagę na ich paradoksalne własności. Zauważył między innymi, że między każdym odcinkiem leżącym na prostej, a tą prostą istnieje wzajemnie jednoznaczna odpowiedniość. Zagadnienia te doprowadziły Cantora do wprowadzenia pojęć równoliczności i mocy zbioru (liczby kardynalnej) – obecnie podstawowych terminów w teorii mnogości.

Kilkanaście lat życia Cantor poświęcił rozwijaniu teorii mnogości, a w tym koncepcji liczb pozaskończonych. Odkrył, że zbiory nieskończone mogą być różnej wielkości – w szczególności odkrył pojęcie przeliczalności i pokazał za pomocą rozumowania

92

Page 93: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

przekątniowego, że zbiór liczb naturalnych nie jest równoliczny ze zbiorem liczb rzeczywistych.

Problemy nowej teorii, poniesione koszty

Cantor przez długi czas starał się udowodnić hipotezę continuum ale, jak się okazało w latach 60. XX w. , jego wysiłki nie mogły przynieść zadowalającego go rezultatu. W ostatnich latach swojej pracy naukowej odkrył pewne paradoksy w teorii mnogości. Długie lata cierpiał na ciężkie depresje (parokrotnie był z tego powodu hospitalizowany). Pod koniec życia zajmował się mistycyzmem – rozwijał koncepcję Absolutnej Nieskończoności, którą utożsamiał z Bogiem. Z powodu choroby i niemożności uniknięcia paradoksów zaprzestał publikowania prac naukowych.

Początkowo większość współczesnych Cantorowi matematyków odnosiła się do jego badań bardzo krytycznie (zwłaszcza Leopold Kronecker). Obecnie jednak jego wyniki są nie tylko w pełni akceptowane, ale uznawane za przełomowe w historii matematyki. Dzięki nim mogły rozwinąć się między innymi takie jej dziedziny jak topologia i teoria funkcji rzeczywistych.

Analiza metodologiczna

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Osiągnięty wynik

Teorie odrzucone

Znaczenie nowej teorii dla nauki

Logiczno-teoriomnogościowy paradygmat współczesnej matematyki

Cechy nowego paradygmatu

Cały wiek XIX należy jeszcze do okresu panowania paradygmatu Euklidesa. Ale właśnie w tym stuleciu zaczęły powstawać i rozwijać się pewne nowe, podstawowe idee, które łącznie

93

Page 94: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

doprowadziły - już jednak na progu XX w - do radykalnej zmiany kształtu matematyki, a więc do powstania nowego paradygmatu. Chodzi tu przede wszystkim o:

- powstanie teorii mnogości

- arytmetyzację analizy matematycznej

- powstanie rachunku kwantyfikatorów

- aksjomatyzację arytmetyki liczb naturalnych

- powstanie geometrii nieeuklidesowych

- pełną aksjomatyzację systemów geometrii, wreszcie

- powstanie i rozwój logiki matematycznej.

Nazwa współczesnego paradygmatu: logiczno-teoriomnogościowy jest nazwą trafną, podkreśla to, że największą rolę w jego odegrały właśnie te dwie dyscypliny matematyczne: logika i teoria mnogości. Pierwsza wysubtelniła język matematyki, nauczyła precyzyjnego definiowania pojęć, nauczyła precyzyjnego formułowania aksjomatów, dokonała głębokiej analizy tak fundamentalnych pojęć, jak wynikanie i dowód, wypracowała metody badań metamatematycznych nad teoriami matematycznymi. Druga dokonała tak wielkiego wzbogacenia aparatu pojęciowego matematyki, że radykalnie zmieniła oblicze tej nauki; było to zjawisko, którego nie da się porównać z niczym innym w dziejach matematyki od czasów Euklidesa.

Proces metodologicznego dojrzewania podstaw matematyki zakończył się wytworzeniem nowego paradygmatu tej dyscypliny Jakie są główne cechy tego paradygmatu?

1. Teoria mnogości stała się podstawową dyscypliną całej matematyki i to nawet w dwóch znaczeniach. Po pierwsze w tym znaczeniu, że każda poważniejsza dyscyplina matematyki jest wyposażona w pewien zasób środków teoriomnogościowych. Oznacza to, że podstawowe pojęcia teorii mnogości (zbioru i należenia) są zaliczane do języka takiej teorii i przynajmniej niektóre aksjomaty teoriomnogościowe są włączane do listy aksjomatów takiej teorii. Tak jest z arytmetyką liczb rzeczywistych, z arytmetyką liczb naturalnych, z różnymi geometriami i z wieloma innymi teoriami matematycznym i, budowanymi jako samodzielne, systemami aksjomatycznymi. Nowoczesna analiza matematyczna jest przesiąknięta teorią mnogości na wskroś, a dzisiejsza algebra - i ta ogólna i ta bardziej konkretna - jest po prostu działem teorii mnogości. Po drugie, teoria mnogości jest dyscypliną podstawową w tym znaczeniu, że ona sama może stanowić fundament całej matematyki: za pomocą jej pojęć pierwotnych można zdefiniować wszystkie pojęcia matematyczne, a z jej aksjomatów można wyprowadzić wszystkie twierdzenia matematyki.

2. Język współczesnych teorii matematycznych jest ostro oddzielony od języka potocznego i wewnętrznie uporządkowany za pomocą precyzyjnych definicji. Język taki jest właściwie sztucznym tworem. Oznacza to dwie rzeczy. Po pierwsze, język taki zawiera zwroty sztucznie ukute przez matematyków, nie występujące w językach etnicznych. Mam tu na myśli chociażby kwantyfikatory wiążące zmienne, czyli zwroty: dla każdego x oraz istnieje takie x, że. Zwroty takie, wprowadzone po raz pierwszy do języka analizy matematycznej pod koniec 1. połowy XIX wieku, spowodowały daleko idące wysubtelnienie języka tej dyscypliny i w decydujący sposób przyczyniły się do jej postępu. Po drugie, występujące w języku matematycznym zwroty - nawet te zaczerpnięte z języka

94

Page 95: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

naturalnego - mają w teorii tylko takie znaczenia, jakie można „wyczytać” z aksjomatów.

3. Definiowanie odbywa się zgodnie z precyzyjnie sformułowanymi regułami definiowania. Reguły te są różne dla różnych kategorii definiowanych terminów. Inna jest więc reguła definiowania predykatów, inna reguła definiowania nazw indywidualnych, jeszcze inna reguła definiowania symboli funkcyjnych. Z formalnego punktu widzenia definicje są po prostu aksjomatami teorii. Są to jednak aksjomaty szczególne. Rola ich ma polegać wyłącznie na dokładnym ustaleniu znaczeń definiowanych terminów. Definicyjne wzbogacenie języka teorii nie może zatem w najmniejszym stopniu powodować rozszerzenia jej treściowej zawartości.

Mówiąc o definicyjnym uporządkowaniu języka matematycznego, mamy na myśli to, że w języku takim wskazane są pewne terminy naczelne, pierwotne, których nie definiuje się, i że wszystkie inne terminy występujące w danej teorii są do niej wprowadzone za pomocą definicji.

Sprawa języka jest w ogóle bardzo charakterystyczna dla różnicy między dawnym i nowym paradygmatem matematyki. Niemal do końca XIX wieku nie zwracano żadnej uwagi na język matematyki; po prostu nie dostrzegano go. Był to zresztą prawie zawsze zwykły język potoczny. Dziś prezentację dowolnej teorii matematycznej rozpoczyna się z reguły od precyzyjnego opisu jej języka. To oddzielenie języka matematyki od języka potocznego było jednym z głównych czynników, które niejako wymusiły ścisłość w każdym zakątku dzisiejszej matematyki.

4. Wszystkie teorie matematyczne zostały w wystarczającym stopniu zaksjomatyzowane. Chcę przez to powiedzieć nie tyle, że aksjomaty poszczególnych teorii zostały raz na zawsze ustalone - bo tak nie jest, lecz to, iż dowodzenie twierdzeń polega na wyprowadzaniu ich z aksjomatów i tylko z aksjomatów, a więc bez korzystania ze związków nie wypowiedzianych w aksjomatach, lecz przemyconych z zewnątrz, np. z oglądania rysunków. „Udowodnienie” twierdzenia, które faktycznie z aksjomatów nie wynika, jest dziś jedynie przejawem niekompetencji.

Decydujące znaczenie dla aksjomatyzacji matematyki w ogóle miała przede wszystkim aksjomatyzacja teorii mnogości, dokonana przez Zermela. System Zermela, doprowadzony najpierw do formalnej perfekcji przez Skolema, był następnie modyfikowany i uzupełniany dalszymi aksjomatami (np. aksjomatem zastępowania i aksjomatem ufundowania). Obecnie stosuje się system Zermelo-Fraenkla-Skolema, ZFS). Należy przypuszczać, że i w przyszłości będzie on modyfikowany i wzmacniany nowymi aksjomatami.

5. Przeprowadzono dokładne rozróżnienie pomiędzy teorią matematyczną i jej językiem z jednej strony oraz metateorią i jej językiem, czyli tzw. metajęzykiem, z drugiej strony. Na podstawie dotychczasowych rozważań wiadomo już mniej więcej, jak może wyglądać np. język pełnego systemu geometrii euklidesowej we współczesnym ujęciu. Jest to w każdym razie język dość ubogi. Zawiera on kilka spójników międzyzdaniowych, kwantyfikatory, zmienne przedmiotowe, kilka predykatów jednoczłonowych (takich jak: jest punktem, jest prostą, jest płaszczyzną, jest zbiorem) oraz kilka predykatów wieloczłonowych (takich jak: leży na, leży między, przystaje do, jest identyczne, jest elementem). W języku takim można mówić wyłącznie o tym, czego dotyczą pojęcia należące do niego, a więc o punktach, o prostych, o zbiorach punktów i prostych itd. Wszelkie natomiast problemy dotyczące samej geometrii jako teorii, takie jak zagadnienie niesprzeczności, zagadnienie zupełności czy zagadnienie niezależności jej aksjomatów oraz wszelkie kwestie dotyczące języka geometrii, należą już do metateorii. Językiem zaś metateorii jest metajęzyk.

95

Page 96: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

6. Dwa kluczowe dla całej matematyki pojęcia: wynikania i dowodu zostały sprecyzowane. Matematycy posługiwali się tymi pojęciami właściwie zawsze, a w każdym razie jeszcze przed Euklidesem. Jednakże aż do końca XIX wieku nawet nie próbowano ich określić. Jedynym wyjątkiem był tu Bolzano, który próbę taką podjął i był na zupełnie dobrej drodze; zabrakło mu jednak dostatecznie subtelnego aparatu pojęciowego, aby uzyskać pełny sukces. Ostatecznie precyzyjną definicję pojęcia wynikania podał A. Tarski w roku 1936. Wyjaśnienie pojęcia dowodu odbywało się stopniowo, w miarę rozwoju logiki matematycznej, głównie dzięki pracom G. Fregego, B. Russella, A. N. Whiteheada (1861-1947), D. Hilberta, P. Bernaysa (1888 - 1977), W. Ackermanna (1896 - 1962), S. Jaśkowskiego (1906 - 1965) i G. Gentzena (1909 - 1945).

Można postawić pytanie: jakie dzieło matematyczne można uznać za najwcześniejszego reprezentanta paradygmatu logiczno-teoriomnogościowego? Sądzę, że takim dziełem są Principia Mathematica (t. I 1910; t. II, 1912; t. III, 1913) napisane wspólnie przez matematyków angielskich A. N. Whiteheada i B. Russella. Sądzę, że rok 1910, rok ukazania się pierwszego tomu dzieła Whiteheada i Russella, można śmiało - chociaż i z pewną dozą umowności - uznać za datę graniczną pomiędzy starym i nowym paradygmatem matematyki.

Tadeusz Batóg Dwa paradygmaty matematyki , ss. 92 -93

Analiza metodologiczna - przekrojowa

Zastosowane procedury badawcze:

Logiczna analiza badań/eksperymentu

Na czym polega przejście od starego do nowego paradygmatu?

Istotne składowe nowego paradygmatu

- Osiągnięty wynik

Teorie odrzucone

Znaczenie nowej teorii dla nauki

96

Page 97: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Logika

Teoria predykatów (Rachunek kwantyfikatorów)

Teoria logiczna pełna

Rachunek logiczny (zdań i kwantyfikatorów) oraz teoria mnogości - to dwa zasadnicze systemy podstaw matematyki.

Rachunek kwantyfikatorów - najważniejsza zdobycz współczesnej logiki - nie powstał przez kolejne udoskonalanie logiki starożytnej. Narodził on się w ścisłym związku ze specyficznie nowożytnymi rozważaniami matematycznymi związanymi z działaniami nieskończonymi oraz z pojęciami ciągłości i granicy funkcji, podstawowymi dla analizy matematycznej i całej współczesnej matematyki.

Pojęcia pochodnej i całki od chwili swego narodzenia w rozważaniach Newtona (1624-1727) i Leibniza pozostają przez przeszło półtora wieku, pojęciami intuicyjnie zrozumiałymi, choć pozbawionymi porządnych definicji w sensie obecnych wymagań. Ówczesne definicje tych operacji wydają się nam nieporządne i mgliste. Trzeba było dopiero przeszło półtorawiekowego wyrobienia myślowego w operowaniu rachunkiem

różniczkowym ażeby została odkryta porządna definicja granicy, tzw. definicja Cauchy’ego (1789-1857), definicja bardzo na owe czasy trudna, zawierająca bowiem trzy następujące po sobie kwantyfikatory: ogólny, szczegółowy i ogólny.

Słów „każdy” i „istnieje” używali oczywiście również starożytni i średniowieczni myśliciele. Jednakże dopiero w rozważaniach matematyków XIX wieku słowa te grają rolę operatorów wiążących zmienne. Występują one mianowicie w zwrotach „dla każdego x ...”, „dla każdego x istnieje takie y, że...” itp.

Całkowicie nowoczesne ujęcie rachunku kwantyfikatorów jako teorii logicznej niezależnej od teorii typów (noszącej często miano węższego rachunku funkcyjnego lub rachunku predykatów pierwszego stopnia) zostaje po raz pierwszy podane przez Hilberta i Ackermanna w książce Grundzüge der theoretischen Logik (1928). Samo formowanie się rachunku kwantyfikatorów trwało więc równe 50 lat i było poprzedzone przeszło pięćdziesięcioletnim zadomawianiem się zwrotów kwantyfikatorowych w praktyce matematycznej.

- Definicja Heinego granicy funkcji f w punkcie x0:

dla x x0 i dla n

lim f(x) = g (xn) {[ n N (xn Df xn ≠ x0 lim xn = x0] lim f(xn) = g}

- Definicja Cauchy’ego granicy funkcji f w punkcie x0, dla x x0:

97

Page 98: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

lim f(x) = g 0) V 0) x Df 0 |x – x0 | | f(x) – f(x0) |

Pełność

Naturalny, historyczny rozwój logiki rzeczywiście doprowadził do powstania takiego systemu logiki, o którym można dowieść, że zawiera wszelkie sposoby (schematy) logicznie poprawnego wnioskowania na dowolny temat. Tę jego własność zwiemy pełnością.

Twierdzenie: Klasyczny rachunek logiczny (krl):

1) jest teorią pełną

2) nie jest teorią zupełną.

Klasyczny, aksjomatyczny rachunek logiczny zawiera dokładnie wszystkie zdania, które są prawdziwe w każdej dziedzinie, czyli zawiera wszystkie tautologie logiczne i tylko tautologie logiczne.

Aksjomatyka krl została więc trafnie dobrana, pozwala bowiem na przeprowadzenie wszystkich rozumowań, które są powszechnie ważne, czyli ważne w każdej dziedzinie.

Rachunek ten zawiera więc pełny zbiór logicznych twierdzeń prawdziwych we wszystkich dziedzinach.

Krl zawiera pełny zbiór praw logicznych powszechnie ważnych, ale nie jest teorią zupełną.

A. Grzegorczyk Zarys logiki matematycznej, s. 273 - 274

Teoria predykatów - pełnym systemem logicznym

Rozwój logiki doprowadził do powstania takiego systemu logiki, który zawiera wszelkie schematy logicznie poprawnego wnioskowania na dowolny temat. System, który posiada taką właściwość nazywamy systemem pełnym. Teoria predykatów jest pełnym systemem logicznym, dlatego nazywana jest po prostu (klasycznym) rachunkiem logicznym (krl). Każde intuicyjnie poprawne rozumowanie daje się mianowicie w tym rachunku logicznym całkowicie sformalizować. Wyciągane spontanicznie wnioski logika rozbija na elementarne etapy, sprowadzając wszelkie poprawne rozumowanie do stosowania aksjomatów krl i reguł pierwotnych krl. Środki te są całkowicie dostateczne do odtworzenia wszelkiego intuicyjnie poprawnego dedukcyjnego dowodu.

Klasyczny, aksjomatyczny rachunek logiczny zawiera dokładnie wszystkie zdania, które są prawdziwe w każdej dziedzinie, czyli zawiera wszystkie tautologie logiczne i tylko tautologie logiczne.

Przy czym krl, będąc teorią pełną, zawiera bowiem pełny zbiór logicznych twierdzeń prawdziwych we wszystkich dziedzinach, nie jest jednak teorią zupełną.

98

Page 99: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Analiza metodologiczna

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Osiągnięty wynik

Teorie odrzucone

Znaczenie nowej teorii dla nauki

Badania i wyniki K. Gödla

Teorie matematyczne - niezupełne

Logika formalna aż do XX wieku była raczej nauką pomocniczą. W wieku XX staje się samodzielną dyscypliną badawczą - uzyskuje mianowicie własny przedmiot badań. Są nim systemy aksjomatyczne i rachunki logiczne.

Problematyka tych badań wyrosła z przybierającej stale na sile w końcu XIX i na początku XX wieku tendencji do jak największej formalnej precyzji matematyki. Problematyka ta w pierwszym trzydziestoleciu XX wieku dotyczyła głównie podstaw metody formalno-aksjomatycznej.

Można ją streścić w formie pytania: jakie wartości poznawcze można sobie zagwarantować stosując się do logicznych wymagań formalnej poprawności? Wartościami były przy tym przede wszystkimi niesprzeczność i zupełność matematycznych systemów. Na-turalne wydawało się dążenie do uzyskania teorii, które byłyby: 1) zupełne, czyli dawały odpowiedź na każde matematyczne zagadnienie dające się sformułować na ich gruncie; 2) niesprzeczne, przy czym niesprzeczność powinna być zagwarantowana osobnym dowodem. Na poszukiwaniu teorii mających te dwie formalne cechy polegał w głównym stopniu powstały około 1900 r. tzw. program Hilberta (1862-1943) i jego szkoły, zwanej formalistyczną.

Około 1930 roku, głównie dzięki badaniom K. Gödla, logicy uzyskali pewien ustalony pogląd na wyżej postawione zagadnienie. Z badań Gödla wynika bowiem, że większość ciekawszych teorii matematycznych to teorie niezupełne. Każda mianowicie teoria matematyczna, która zawiera w sobie arytmetykę liczb naturalnych, jest niezupełna. Większość twórczej pracy matematyków dokonuje się właśnie na gruncie takich teorii.

99

Page 100: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Dla żadnej teorii matematycznej zawierającej w sobie arytmetykę liczb naturalnych nie można również przeprowadzić dowodu niesprzeczności, który by nie korzystał ze środków mocniejszych od danej teorii. Innymi słowy: każdy dowód niesprzeczności teorii T, zawierającej arytmetykę liczb naturalnych, wymaga do swego przeprowadzenia, teorii S, zawierającej w sobie teorię T i wiele innych jeszcze twierdzeń. Program Hilberta, wytyczony zbyt apriorycznie okazał się nieosiągalny. Odegrał jednak w swoim czasie ważną rolę dostarczając podniety do badań.

Twierdzenie Gödla o niepełności

W r. 1931 K. Gödel w pracy Űber formal unentscheidbare Sätze der Principia Mathematica und verwandter systeme (O formalnie nierozstrzygalnych zdaniach systemu Principia Mathematica i pokrewnych systemów) udowodnił słynne twierdzenie, zwane twierdzeniem Gödla. Twierdzenie to (w sformułowaniu wzmocnionym następnie przez Rossera) głosi, że

Każdy niesprzeczny system aksjomatyczny zawierający arytmetykę liczb naturalnychjest niepełny.

A więc, istnieją zdania prawdziwe tego systemu, które nie dają się w nim udowodnić.

Dowód (szkic)* [Materiał pomocniczy do tego dowodu został podany niżej, patrz punkt: Do dowodu twierdzenia Gödla]

W dowodzie tego twierdzenia korzysta Gödel z tzw. arytmetyzacji syntaksy. Polega ona na tym, że przyporządkowujemy wzajemnie jednoznacznie symbolom i wyrażeniom systemu S liczby naturalne, będące numerami tych wyrażeń, a zbiorom wyrażeń i relacjom zachodzącym między wyrażeniami przyporządkowujemy wzajemnie jednoznacznie zbiory liczb, będących numerami tych wyrażeń, i relacje zachodzące między numerami tych wyrażeń. Na gruncie tego przyporządkowania pewne zdania arytmetyczne, oprócz zwykłej interpretacji arytmetycznej mają także interpretację syntaktyczną, dotyczącą wyrażeń.

Korzystając z takiej arytmetyzacji syntaksy konstruuje Gödel w pewnym systemie S, zawierającym arytmetykę liczb naturalnych, pewne zdanie G. Zdanie to w interpretacji syntaktycznej głosi o sobie, że nie jest ono tezą systemu S.

Gödel dowodzi, że jeśli system S jest niesprzeczny, to ani zdanie G ani negacja zdania G nie są tezami systemu S. Zdanie G jest jednak zdaniem arytmetycznym systemu S, które w interpretacji arytmetycznej głosi, że pewna liczba naturalna, będąca numerem zdania G, nie należy do klasy tych liczb naturalnych, które są numerami tez systemu S.

A więc w rozważanym systemie S, zawierającym arytmetykę liczb naturalnych, ;

istnieje zdanie arytmetyczne G, takie, że ani zdanie G ani jego negacja nie są tezami systemu S. Jedno z tych dwóch zdań sprzecznych jest prawdziwe. W istocie prawdziwe jest zdanie G: w interpretacji syntaktycznej głosi ono o sobie, że nie jest tezą systemu S i faktycznie nie jest tezą tego systemu. A więc istnieją zdania prawdziwe systemu S, które nie są tezami systemu S. System S jest więc systemem niepełnym.

Tej niepełności systemu S nie można usunąć dołączając zdanie G do aksjomatów i systemu S. Dla tak bowiem rozszerzonego systemu można znowu metodą wprowadzoną i

100

Page 101: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

przez Gödla skonstruować inne zdanie G1 które w tym rozszerzonym systemie pełni taką samą rolę jak zdanie G w systemie S, które więc nie jest tezą rozszerzonego systemu, choć jest jego zdaniem prawdziwym, i którego negacja również nie jest tezą rozszerzonego systemu.

Znaczenie twierdzenia Gödla

Twierdzenie Gödla należy do najdonioślejszych odkryć logicznych XX wieku . Wywarło ono wielki wpływ na kierunek badań nad systemami dedukcyjnymi.

Twierdzenie Gödla wykazuje, że nie można utożsamiać pojęcia tezy logicznej i pojęcia prawdziwego wyrażenia systemu logiki, tj. prawdziwego wyrażenia zbudowanego ze stałych logicznych i zmiennych. W pewnych uboższych systemach logicznych, które są systemami pełnymi, oba te pojęcia mogą mieć ten sam zakres. Np. w rachunku zdań czy też węższym rachunku predykatów każde i tylko prawdziwe wyrażenie takiego systemu jest jego tezą. Jednakże w bogatszych systemach logicznych, do których stosuje się twierdzenie Gödla, zakresy obu tych pojęć nie pokrywają się. Każda teza logiczna takiego systemu jest wyrażeniem prawdziwym tego systemu, ale nie odwrotnie. Istnieją wyrażenia prawdziwe takiego systemu, tj. wyrażenia prawdziwe w każdym niepustym zbiorze, które nie są jego tezami.

Badania Gödla wykazały również swoistą ograniczoność poznawczą metody logiczno-aksjomatycznej. W każdej mianowicie teorii T, niesprzecznej i zawierającej arytmetykę liczb naturalnych, istnieją zdania A (x) z jedną zmienną liczbową wolną takie, że chociaż wszystkie zdania postaci(a) A(0), A(1), A(1), A(2), . ..są twierdzeniami teorii T, to jednak zdanie ogólne(b) Dla każdej liczby naturalnej x zachodzi A (x)nie daje się w teorii T wyprowadzić (ani ono, ani jego zaprzeczenie).

Jest to paradoks o głębokim ogólnopoznawczym sensie. Dotyczy on bowiem teorii o dowolnie bogatej aksjomatyce i dowolnie mocnych regułach dowodzenia, byleby tylko aksjomaty i reguły teorii nie wykraczały poza to, czego wymaga się od normalnych teorii. Od normalnych teorii wymagamy mianowicie, formalnej, intersubiektywnej sprawdzalności dowodów. Dowody muszą być takie, aby można było sprawdzić, jaka reguła i które aksjomaty zostały w dowodzie użyte.

A. Grzegorczyk Zarys logiki matematycznej, ss. 485 – 498

101

Page 102: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Kurt Gödel (1906 - 1978) – austriacki logik i matematyk, autor twierdzeń z zakresu logiki matematycznej, współautor jednej z aksjomatyk teorii mnogości. Do najbardziej znanych osiągnięć matematycznych Gödla należą twierdzenia o niezupełności i niesprzeczności teorii dedukcyjnych, które obejmują arytmetykę liczb naturalnych. Rezultaty Gödla zalicza się do największych osiągnięć matematyki XX wieku.

Analiza metodologiczna

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Osiągnięty wynik

Teorie odrzucone

Znaczenie nowej teorii dla nauki

102

Page 103: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Nauki humanistyczne i społeczne

Archeologia

Odkrycie Troi

Fascynacja historią i realizacja marzeń

103

Page 104: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Johann Ludwig Heinrich Julius Schliemann (1822 - 1890 ) – niemiecki archeolog-amator, odkrywca Troi, Myken i Tirynsu

Jak pisał później sam Schliemann, jego zainteresowanie Troją i jej bohaterami narodziło się, gdy w wieku 7 lat otrzymał od ojca w podarunku na Boże Narodzenie „Ilustrowaną historię świata” Jerrera, w której największe wrażenie wywarła na nim rycina przedstawiająca pożar Troi. To wówczas postanowił kiedyś odnaleźć to miasto. Jako dziewięciolatek bawił się z córką pobliskiego rolnika Minną Meincke w wykopaliska archeologiczne.

W 1864 Schliemann, będąc u szczytu kariery zawodowej, postanowił zrealizować swoje marzenia. Zlikwidował firmę, pieniądze ulokował w Paryżu, Londynie i Amsterdamie i wyruszył w podróż dookoła świata, trwającą 2 lata. Odwiedził w tym czasie Egipt, Wyspy Sundajskie, Chiny, Japonię, Kubę, Meksyk oraz Amerykę Północną i Środkową, a następnie osiadł w Paryżu. W l. 1866-1870 studiował na paryskiej Sorbonie literaturę i języki obce.

W 1868 wyjechał po raz pierwszy do Grecji – przez Peloponez i Troadę dotarł do Itaki.W 1869 doprowadził do rozwodu z pierwszą żoną i ożenił się z Greczynką Zofią Engastroménou (gr. Σοφία Εγκαστρωμένου), która od tego czasu towarzyszyła mężowi we wszystkich wyprawach i poszukiwaniach.

Starożytni Grecy i Rzymianie uznawali wojnę trojańską za wydarzenie prawdziwe, choć np. historyk Tukidydes zarzucał Homerowi zbytnie fantazjowanie. XIX-wieczni Europejczycy też pasjonowali się dziejami Parysa, Ajaksa, czy Agamemnona, ale traktowali je już tylko jako mit. Miał to zmienić Heinrich Schliemann– niemiecki kupiec, który zbił ogromną fortunę handlując w Rosji. Zafascynowany „Iliadą” udał się na poszukiwanie Troi.

W 1870 Schliemannowie udali się do północno-zachodniej części Azji Mniejszej. Rekonesans wzgórza koło miejscowości Bunarbaszi, które było dotychczas uważane za miejsce, gdzie stała Troja, utwierdził Schliemanna w przekonaniu, że lokalizacja ta była błędem. Przeszukiwanie okolic jednak przyniosło efekty – wskazówki od mieszkającego w tych okolicach Anglika Franka Calverta zwróciły uwagę Schliemanna na wzgórze koło wioski Hissarlik, które w połowie było własnością Anglika. Kształt i lokalizacja tego wzgórza doskonale odpowiadało jego koncepcji usytuowania Troi. Przed nim do podobnego wniosku doszedł Anglik Frank Calvert, ale dopiero pieniądze Schliemanna pozwoliły zacząć wykopaliska na dużą skalę.

Schliemann rozpoczął wykopaliska w 1871 i powracał do nich do 1873, kiedy to 14 czerwca nastąpił przełom w poszukiwaniach – odkrył tzw. skarb Priama, co stało się ukoronowaniem jego poszukiwań i, według niego, było potwierdzeniem lokalizacji Troi. Skarb ten przemycił do Grecji, a następnie, po spłaceniu rządu tureckiego, żądającego zwrotu znaleziska, ofiarował go muzeum w Berlinie.

Z czasem dowiedziono, że w rzeczywistości odkrycia te pochodzą z zupełnie innego okresu niż ten, w którym żyć mogli Helena i Agamemnon, nazwy zwyczajowe jednak pozostały

104

Page 105: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

14 czerwca 1874 archeologowi udało się odkryć złotą biżuterię. Schliemann ubrał w nią swoją żonę. Tak powstało jedno z najsłynniejszych zdjęć w dziejach archeologii. 

Zofia Engastroménou, druga żona Schlimanna, ubrana w biżuterię znalezioną w trakcie wykopalisk męża w Troi

Troja, Ilion (gr. Τροία oraz Ἴλιον lub Ἴλιος Ilios, łac. Ilium) – starożytne miasto położone w Troadzie u zachodnich wybrzeży Azji Mniejszej nad rzeką Skamander, współcześnie stanowisko archeologiczne w Turcji, na wzgórzu Hisarlık w pobliżu wsi Tevfikiye, w prowincji Çanakkale.

Miasto jest szczególnie znane z wojny, opisanej w starogreckim poemacie epickim Iliada. Poemat ten przypisuje się Homerowi. Najprawdopodobniej powstał on w VIII lub IX wieku p.n.e. (jakkolwiek zawiera też starszy materiał). Odniesienia do Troi można znaleźć także w innym eposie Homera, Odysei.

105

Page 106: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Homerycka legenda o Troi została wykorzystana przez rzymskiego poetę Wergiliusza w jego poemacie epickim Eneida. Według legendy miasto to zostało zdobyte za pomocą podstępu z koniem trojańskim.

Obecnie uważa się, że Troja była miastem usytuowanym na wzgórzu Hisarlık w dzisiejszej Turcji. Pierwsze badania na tym terenie przeprowadził w latach 1871-1894 niemiecki archeolog-amator Heinrich Schliemann z asystującym mu od 1882 Wilhelmem Dörpfeldem. Odkryli oni na wzgórzu pozostałości 9 miast zakładanych w tym samym miejscu.

Późniejsze badania z udziałem Carla Blegena w latach 1932-1938 przyniosły pierwsze poważne opracowanie naukowe. W 1989 roku pracę na tym terenie rozpoczęła misja Manfreda Korfmanna z Tybingi. Dopiero ta misja rozpoczęła prace nie tylko na cytadeli, ale też w tzw. dolnym mieście, które znajdowało się u jej stóp i miało kilkakrotnie większą powierzchnię.

Opisana w Iliadzie Troja była najprawdopodobniej szóstym lub siódmym miastem zbudowanym na wzgórzu Hisarlık. Została zburzona w połowie XIII wieku p.n.e., albo na początku XII wieku p.n.e. 

Miasto to zostało wpisane na światową listę dziedzictwa kultury UNESCO w 1998 r.

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

Zastosowane procedury badawcze:

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Teorie odrzucone w wyniku badań/eksperymentu

Znaczenie eksperymentu dla nauki

106

Page 107: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Językoznawstwo

Język starożytnych Egipcjan – odczytany

Genialny językoznawca i dwujęzyczny napis

Jean-François Champollion (1790 - 1832) –

francuski językoznawca,archeolog, egiptolog i poliglota. Uznawany za twórcę nowoczesnej

egiptologii

Champollion  w wieku 11 lat, przy okazji spotkania ze słynnym uczonym i byłym sekretarzem Instytutu Egipskiego w Kairze Jeanem Baptistą Fourierem, zetknął się po raz pierwszy z hieroglifami i już wówczas postanowił, że je kiedyś odczyta.

W lecie 1807 roku opracował pierwszą historyczną mapę Egiptu i rozpoczął zbieranie materiałów do swojej książki Egipt pod panowaniem faraonów, która w całości ukazała się

107

Page 108: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

siedem lat później. Po przedstawieniu przed komisją Akademii ukończonego wstępu wspomnianego wyżej dzieła został, w wieku zaledwie siedemnastu lat, przyjęty do Akademii w Grenoble. Chcąc odczytać hieroglify posłużył się językiem koptyjskim, którego nauczył się od egipskiego księdza. Jednocześnie studiował w Collège de France, École des Langues Orientales i Bibliothéque Nationale w Paryżu. Rozpoczął także naukę pod kierunkiem specjalisty językowego, Silvestre`a de Sacy.

W 1809 roku Champollion został profesorem historii starożytnej na uniwersytecie w Grenoble. Po upadku Napoleona w 1814 należał do krytyków monarchii burbońskiej i kiedy cesarz powrócił z Elby i w marcu 1815 wkroczył do Grenoble, wśród witających go byli bracia Champollion. Napoleon rozmawiał wtedy z młodym profesorem historii o jego pracach nad słownikiem języka koptyjskiego. Z powodu głośnego wyrażania swoich poglądów (sympatie pronapoleńskie), po klęsce Napoleona obaj bracia zostali w 1816 r. zwolnieni ze stanowisk w Grenoble i powrócili do Figeac.

Podczas dwóch lat pobytu w areszcie domowym zajmował się studiowaniem inskrypcji na „Kamieniu z Rosetty”, zbierając w międzyczasie spory materiał porównawczy. Francuski architekt Jean Nicolas Kuyot, przyjaciel Champolliona, odbył w latach1818-1819 podróż do Egiptu, z której przywiózł koledze sporządzone przez siebie kopie napisów hieroglificznych. Champollion skorzystał także z inskrypcji jakimi pokryty był odnaleziony w 1815 roku obelisk z File. Porównując kartusze Kleopatry z kartuszami wyrytymi na kamieniu z Rosetty uzyskał wstępne wyniki, konieczne do odczytania pisma hieroglificznego.

W 1822 odczytał egipskie hieroglify na podstawie inskrypcji na kamieniu z Rosetty oraz analizy języka koptyjskiego, ostatniej fazy rozwojowej języka dawnych Egipcjan. Udowodnił, że egipskie hieroglify opierały się na zasadzie fonetyczności zapisu. Swoje spostrzeżenia przedstawił w artykule pt. "List do Pana Dacier dotyczący alfabetu hieroglifów fonetycznych" (Dacier był sekretarzem francuskiej Akademii Inskrypcji i Literatury).

W 1824 Champollion opublikował kolejne swoje dzieło pt. "Zarys systemu hieroglificznego", w którym wyłożył całość swoich osiągnięć potwierdzając jeszcze raz niezaprzeczalność swojego odkrycia.

W latach 1828-1829 Champollion, wraz z włoskim egiptologiem Rosellinim oraz grupą rysowników i architektów, wziął udział we francusko-toskańskiej ekspedycji naukowej do Egiptu. Nie prowadził prac wykopaliskowych, ale poznawał zabytki i odczytywał inskrypcje hieroglificzne, odwiedzając m.in. Memfis, Amarnę, Abu Simbel i Denderę.

Pobyt w Tebach trwał od 8 marca do 4 września 1829 r. Przez dwa tygodnie ekspedycja pracowała w Luksorze, gdzie zajęła się pomiarami, opisem i kopiowaniem scen ze ścian świątyni i obelisków.

Misja przywiozła do Europy kilka tysięcy dokładnych rysunków sporządzonych w świątyniach i grobowcach. Dokumentacja była wierna i dużo lepsza niż wykonana przez ekspedycję Napoleona. Champollion w jednym z listów napisał, że ...należałoby

108

Page 109: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

publicznie wychłostać na placu Komisję Egipską, która ośmieliła się opublikować tak nieforemne szkice tych wielkich i pięknych kompozycji[2].

Niewątpliwie był to kamień milowy dla powstania zupełnie nowej dziedziny nauki jaką była egiptologia, po raz pierwszy umożliwiając badanie historii starożytnego Egiptu na podstawie źródeł egipskich, a nie greckich (egiptolog, prof. K. Myśliwiec)

Kamień z Rosetty

109

Page 110: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Kamień z Rosetty

Kamień z Rosetty to czarna kamienna (bazaltowa) płyta o wysokości maksymalnej 114,4 cm, szerokości 72,3 cm i grubości 27,9 cm oraz wadze 762 kg.

Płyta stanowiła część steli ustawianej w świątyniach na polecenie kapłanów w pobliżu wizerunku faraona. Została odkryta podczas robót fortyfikacyjnych w średniowiecznej twierdzy (nazwanej przez Francuzów Fort Julien) w egipskim porcie Rosette 15 lipca 1799 przez kapitana Pierre'a-François Boucharda w trakcie wyprawy Napoleona do Egiptu. Płyta stanowiła element starego muru twierdzy, remontowanego przez żołnierzy francuskich w oczekiwaniu na spodziewany atak turecki na zachodnią część Delty.

Zdobił ją tekst zapisany w trzech pismach, w dwóch językach, co później stało się kamieniem milowym na drodze do odczytania pisma starożytnych Egipcjan, a jednocześnie zrozumienia ich kultury i historii.

Tekst zapisany greką został bardzo szybko odczytany przez filologów. Był to ten sam tekst, który został zapisany w trzech wersjach i dwóch językach, aby był zrozumiały zarówno przez rodowitych Egipcjan, jak i przez Greków. Jego treść stanowi dekret wydany 27 marca 196 roku pne przez kapłanów egipskich w Memfis dla uczczenia faraona Ptolemeusza V z okazji pierwszej rocznicy jego koronacji, w związku z doznanymi od niego dobrodziejstwami. Faraon po wstąpieniu na tron ogłosił amnestię, obniżył podatki i podniósł dochody kapłanów.

Kiedy już znany był tekst grecki, stało się możliwe odczytanie hieroglifów, co uczynił w 1822 roku francuski uczony Jean-Francois Champollion. W odczytaniu tego niezwykłego kamienia pomogła mu znajomość języka koptyjskiego i kilkunastu języków wschodu. Rozpoznawszy, że dalej powtarzają się tam te same znaki w miejscu, gdzie w tekście greckim występują imiona Ptolemeuszów, stwierdził, że znaki pisma hieroglificznego muszą być znakami fonetycznymi. I to było wielkie odkrycie, ponieważ do tego czasu wyobrażano sobie, że są to wyłącznie znaki symboliczne.

Do chwili odkrycia kamienia z Rosetty informacje, jakie mieliśmy o starożytnym Egipcie pochodziły głównie od Greków. Egipskie pismo traktowane były często jak wspaniałe rysunki, ornamenty mające w sobie więcej magii niż rzeczywistego języka. Od chwili odkrycia kamienia z Rosetty wiedziano, że jest to dokument niezwykłej wagi.

Oryginał kamienia z Rosetty znajduje się dzisiaj w Galerii Egipskiej w londyńskim British Museum, a jego kopia w Luwrze. Egipt dąży do odzyskania zabytku, wywiezionego zdaniem jego władz nielegalnie w epoce kolonialnej.

Analiza metodologiczna

Wykorzystane przyrządy naukowe:

Zastosowane procedury badawcze:

110

Page 111: WH AGH - Zastosowanie modeli do badania zjawisk ...€¦ · Web viewr. Zarejestrowane fotografie śladów cząstek elementarnych w komorze Wilsona były tak przekonującym dowodem

Logiczna analiza eksperymentu

- Wynik badań/eksperymentu

Teorie odrzucone w wyniku badań/eksperymentu

Znaczenie eksperymentu dla nauki

111