Okładki:
|
ANDRZEJ ZIMNIAK UPOWSZECHNIANIE NAUKI |
|
Artykuły popularnonaukowe • Antybiotyki - superbroń w walce o życie • Nie wierzę w nanotechnologię
Artykuły o upowszechnianiu nauki • Kilka uwag o upowszechnianiu nauki
Festiwale Nauki • Jubileuszowy X Festiwal Nauki 2006 na Wydziale Farmaceutycznym AM w Warszawie
Książka "Inżynieria genetyczna - u progu nowej ery" (red.), zbiór artykułów przeglądowych, CUN PAN, Warszawa 2000
|
Artykuły popularnonaukowe |
Andrzej Zimniak ANTYBIOTYKI - SUPERBROŃ W WALCE O ŻYCIE
Można przypuszczać, że gdy rankiem pewnego wrześniowego dnia 1928 roku Fleming wszedł zamyślony do laboratorium, trzymając szklane naczynko z hodowlą bakterii, nikt nie zwrócił specjalnej uwagi ani na niego, ani na eksponat. Fleming mruknął do siebie "ciekawe, całkiem interesujące" i z powrotem znikł w swoim pokoju. Jeden z jego współpracowników, Pryce, pomyślał zapewne, że gdyby dr Aleksander częściej mył szkło laboratoryjne, pleśń nie zdążyłaby zniszczyć hodowli. Bo rzeczywiście: Fleming tylko niechętnie sprzątał swoje burko, założone szalkami Petriego, stojakami z probówkami i sprzętem. Zwykł był mawiać, że na umytym do czysta szkle nikt jeszcze niczego ciekawego nie zauważył, natomiast jeśli się trochę poczeka, to kto wie, czy coś z tego nie wyniknie. Dziś nie da się już dociec, jaki udział w jego odkryciu miała niechęć do robienia porządków, a jaki - zdolność przewidywania. Natomiast bezdyskusyjny jest udział wielkiego doświadczenia i przenikliwości Fleminga, owego pasteurowskiego przygotowania. Wtedy, na pozostawionej na biurku hodowli zjadliwych gronkowców (stafilokoków), na brzegu pożywki wyrosła pleśń z gatunku penicillium notatum. Mikroskopijny zarodnik przypadkowo dostał się przez okno lub ktoś przyniósł go na rękawie płaszcza, i z niego rozwinęła zwykła, biała pleśń, podobna do zwitka waty, jaką często widujemy np. na dżemach czy zepsutych pomarańczach. Lecz nikt oprócz Fleminga nie zauważył, że kolonie bakterii w pobliżu siedliska pleśni uległy częściowemu rozpuszczeniu, a w bezpośredniej bliskości - całkowicie zanikły. Coś jest w pleśni, co zabija bakterie - gorączkowo myślał Fleming, przystępując do dalszych eksperymentów. Całe życie szukał substancji, która odkażałaby organizm, nie niszcząc tkanek. Właśnie ją znalazł i wkrótce nazwał penicyliną.
Minęło jednak aż 12 lat, zanim podano pierwsze doświadczalne dawki ludziom, i jeszcze dalsze 2 lata, po upływie których sam Fleming dokonał spektakularnego wyleczenia śmiertelnie chorego Harry'ego Lamberta, własnoręcznie wstrzykując mu swój rewelacyjny lek. Dopiero wtedy cały świat obiegła wiadomość o odkryciu, a o bakteriobójczych właściwościach penicyliny dowiedzieli się nie tylko naukowcy, ale wszyscy. Dziś możemy spytać, dlaczego tyle lat zostało zmarnowanych. Otóż badacze nie dysponowali wówczas taką wiedzą i takimi metodami analitycznymi jak obecnie, a penicylina okazała się związkiem mało trwałym i wyjątkowo trudnym do oczyszczenia i wyizolowania. Jedno pozostało wspólne dla wszystkich czasów: brak pieniędzy na badania. Penicylinę do pierwszych prób klinicznych otrzymywano przez dwa lata w półtechnicznej skali przy użyciu następującej aparatury: niepotrzebnych już basenów szpitalnych, maselnic do ręcznego mieszania mleka, starych wanien, kubłów i baniek po oleju. Tej heroicznej pracy dokonali Howard Florey i Ernst Chain z Oksfordu, oni również przeprowadzili decydujące próby na zwierzętach i później na ludziach. Porcja leku, która uratowała Harry'ego Lamberta, też pochodziła od nich. Można powiedzieć, że Fleming dokonał genialnego wejścia, lecz potem trudności natury chemicznej przerosły możliwości jego i jego zespołu, natomiast znów pojawił się na scenie, gdy można już było zagrać fanfary, i z kolei dopiero on potrafił spopularyzować odkrycie odpowiednio do jego rangi. Wszyscy trzej Brytyjczycy otrzymali najwyższe wyróżnienie naukowe, Nagrodę Nobla, w 1945 roku. |
Aleksander Fleming (1952 rok)
Pleśń Penicillium notatum na szalce Petriego... |
|
W dzisiejszych czasach penicylinę G, lub inaczej benzylową, wciąż taką samą, którą Fleming odkrył 70 lat temu, produkuje się za pomocą zupełnie innej aparatury, choć tzw. schemat ideowy, czyli dotyczący pomysłu procesu, nie uległ wielkim zmianom. Podstawową reakcję syntezy cząsteczki antybiotyku wykonują mikroorganizmy (grzybki penicillium notatum) w procesie fermentacji. Synteza chemiczna "od podstaw", chociaż możliwa, byłaby wielokrotnie bardziej kosztowna. Wyobraźmy sobie potężny cylinder, wykonany z nierdzewnej stali, o średnicy 6 m i wyskości 5-cio piętrowego budynku, z daleka przypominający zbożowy silos. Jest to tzw. tank fermentacyjny o pojemności 300-400 tysięcy litrów. W nim umieszcza się pożywkę, na której będzie rosła pleśń: węglowodany (mąkę, cukier, hydrolizat skrobi), tłuszcze (olej, smalec) i dodatki mineralne (głównie sole amonowe), wszystko wymieszane z wodą do konsystencji półpłynnej masy. Produktów spożywczych jest w zbiorniku tyle, że starczyłoby na wyżywienie mieszkańców 300-tysięcznego miasta przez cały dzień! Po załadowaniu tanku trzeba go wyjałowić, aby nie mnożyły się organizmy konkurencyjne. W tym celu przepuszcza się przez pożywkę przegrzaną parę o temperaturze 120°C, a następnie całość schładza się do ok. 30°. Teraz można już zaszczepić tank kolonią grzybni. Taką grzybnię zwykle kupuje się w wyspecjalizowanych firmach farmaceutycznych, a niewielka fiolka preparatu może kosztować ponad 50 tysięcy dolarów. Ponieważ, w zależności od składu dodatków mineralnych, pleśń albo rośnie "w masę", czyli zużywa energię głównie na rozmnażanie, albo produkuje maksymalną ilość antybiotyku przy znacznie mniejszym tempie namnażania, najpierw stosuje się taką kompozycję, aby dostatecznie namnożyć mikroorganizmy, a dopiero potem odpowiednio zmienia się ich jadłospis, aby stały się najbardziej wydajne. O grzybki trzeba teraz dbać, bo przez tydzień muszą wyprodukować 10 ton penicyliny. Przez fermentującą masę przepuszcza się powietrze o optymalnej temperaturze, do którego często dodaje się trochę amoniaku, ponieważ łatwo przyswajalny azot to dla pleśni szczególny rarytas. Należy też uważać, w jaki sposób mikroorganizmy się starzeją, a głównie - czy zachowują odpowiednią jędrność. Chodzi o konsystencję fermentującej masy (brzeczki), którą w następnym etapie trzeba poddać filtracji; zatkanie filtrów grozi zmarnowaniem całej kosztownej szarży. Filtrowanie odbywa się na filtrach bębnowych lub membranowych. W obu przypadkach stosuje się różnice ciśnień, aby oddzielić wodny roztwór antybiotyku w postaci soli amonowej od grzybni i resztek pożywki. Z tego zanieczyszczonego, rozcieńczonego roztworu (bulionu) należy wyodrębnić krystaliczną, sterylnie czystą penicylinę z jak najwyższą wydajnością, bo każda strata na tym etapie to przepadek dużych pieniędzy. Jak zobaczymy, proces ekstrakcji z bulionu bez przesady można nazwać szczytem chemicznej wirtuozerii. Ekstrakcją nazywamy przemieszczanie się rozpuszczonego składnika między dwiema niemieszającymi się cieczami. Takim układem może być np. olej i woda; w procesie otrzymywania penicyliny jest to organiczny rozpuszczalnik (stosuje się octan butylu) i bulion. Zasadowa sól penicyliny rozpuszcza się w wodzie, a w rozpuszczalnikach organicznych nie, natomiast karboksylowa jej postać (patrz fragment "Chemia penicyliny", zamieszczony obok) - odwrotnie. Z tego wynika, że po zakwaszeniu bulionu, który będzie stykać się z warstwą octanu butylu, penicylina w postaci wolnego kwasu karboksylowego zostanie wyekstrahowana z warstwy wodnej do fazy organicznej. Owszem, w teorii tak właśnie ładnie to można sobie wyobrazić, lecz w praktyce wyłania się zasadniczy problem: penicylina nie jest trwała w środowisku kwaśnym. Jej 4-członowy, inaczej beta-laktamowy, pierścień ulega szybkiej hydrolizie, czyli w tym przypadku rozerwaniu (patrz rysunek), a aktywność przeciwbakteryjna spada do zera. Nietrwałość penicyliny sprawiła wiele kłopotów Flemingowi, a i później nie ułatwiała życia Florey'owi i Chainowi. Z tego także powodu nie można stosować penicyliny G doustnie, bo kwaśny sok żołądkowy natychmiast ją rozkłada; pozostaje niezbyt wygodny iniekcyjny sposób podawania. Co więc należy zrobić, aby oczyścić bulion? Nie stosować zbyt mocnego kwasu, a przede wszystkim - działać szybko. Trzeba skorzystać z tej krótkiej chwili, w której kwas już odszczepił jon soli i pozostała wolna grupa karboksylowa, ale jeszcze nie zdążył "napocząć" pierścienia beta-laktamowego - wtedy należy natychmiast wyekstrahować penicylinę, czyli przenieść ją do bezpiecznej organicznej warstwy octanu butylu. W tym roztworze będzie bezpieczna dlatego, że nie rozpuszcza się w nim stosowany kwas mineralny, a więc nie istnieje już groźba rozkładu nietrwałego pierścienia. Urządzenie do takiej błyskawicznej reakcji i jednocześnie bardzo wydajnej ekstrakcji to właśnie wspomniany szczyt wirtuozerii chemiczno - inżynierskiej. Jest nim specjalnej konstrukcji wirówka, w której mieszają się niezwykle precyzyjnie obliczone (zarówno co do wielkości, jak i kierunku) strumienie bulionu, rozcieńczonego kwasu i organicznego rozpuszczalnika. W ułamek sekundy po zmieszaniu obie warstwy: wodna (kwaśna, uformowana z rozcieńczonego kwasu i bulionu) i organiczna zostają w wirówce rozdzielone na zasadzie działania siły odśrodkowej; warstwa wodna jako cięższa ulega odrzuceniu, pozostaje roztwór penicyliny w octanie butylu, który zostaje odpompowany (urządzenie działa w procesie ciągłym). Ponieważ rozpuszczalne w wodzie domieszki zostały w zasadzie usunięte, otrzymujemy roztwór antybiotyku już częściowo oczyszczony. To jednak dopiero zaledwie początek procesu, mającego na celu uzyskanie jałowej penicyliny w postaci białych kryształków. W celu dalszego czyszczenia roztwór organiczny na powrót alkalizuje się, aby otrzymać sól potasową penicyliny, a następnie przeprowadza się ekstrakcję do wody. Do wodnego roztworu dodaje się alkohol zwany butanolem, który tym różni się od zwykłego etanolu (spirytusu), że ma cząsteczkę wydłużoną o dwa atomy węgla i lepiej nadaje się do dalszego procesu. Wykazuje on mianowicie taką cechę fizykochemiczną, że tworzy z wodą azeotrop, czyli dwuskładnikową mieszaninę o ściśle określonym składzie ilościowym, która charakteryzuje się temperaturą wrzenia niższą niż każdy z obu składników. Podczas destylacji w niskiej temperaturze, w której labilna penicylina jeszcze się nie rozkłada, usuwa się część azeotropu butanol/woda, znów dodaje się butanolu i znów destyluje. W ten prosty sposób usuwa się z roztworu większość wody, a ponieważ sól potasowa penicyliny źle rozpuszcza się w butanolu, zaczyna w pewnym momencie krystalizować. Krystalizacja jest jednym z najefektywniejszych procesów oczyszczania, więc po odwirowaniu otrzymuje się w zasadzie czystą penicylinę. Napisałem w zasadzie, bo związek wystarczająco czysty z punktu widzenia chemika wcale nie musi być dość dobry dla farmakologa. Temu pierwszemu nie przeszkadzają mikroskopijne kolonie bakterii lub śladowe ilości pyrogenów, natomiast po iniekcji, zawierającej którąś z wymienionych domieszek, pacjent albo zachoruje (jeśli wprowadzi mu się domięśniowo lub dożylnie szczep bakterii oporny na aplikowany antybiotyk), albo dostanie wysokiej gorączki (efekt działania pyrogenów). Pyrogeny to po prostu obce białko, najczęściej fragmenty obumarłych bakterii, wobec których przeciwciała organizmu rozpoczynają natychmiastową ofensywę. Zarówno bakterie, jak i pyrogeny usuwa się przez filtrację roztworu antybiotyku przez filtry wyjaławiające o średnicy porów 0,2 mikrona (czyli dwie dziesięciomilionowe części metra). Bakterie są większe i pozostają "na sitku", a pyrogeny prawdopodobnie adsorbują się na powierzchni filtra. Natomiast apyrogenną wodę do iniekcji uzyskuje się w wyniku dwukrotnej destylacji. Penicylina benzylowa, tzw. penicylina G, którą otrzymuje się w wyżej opisanym procesie, jest wciąż szeroko stosowana i w wielu przypadkach niezastąpiona w terapii. Równolegle służy ona za związek wyjściowy do syntezy wielu innych penicylin o odmiennych zakresach działania, także takich, które są stosunkowo trwałe w środowisku kwaśnym, w związku z czym można je podawać doustnie. W celu otrzymania pochodnych półsyntetycznych penicylinę G poddaje się enzymatycznej hydrolizie za pomocą amidazy penicylanowej, w wyniku czego usunięty zostaje łańcuch boczny i uzyskuje się kwas 6-aminopenicylanowy (patrz rysunek). Ten kwas służy za podstawowy surowiec w chemicznych metodach otrzymywania pochodnych, jak np. ampicylina, syntarpen czy amoksycylina. Wymienione antybiotyki półsyntetyczne są trwałe w środowisku kwaśnym, a więc można stosować je doustnie. Od czasów Fleminga rodzina antybiotyków znacznie się powiększyła i obejmuje wiele grup związków bardzo różniących się budową chemiczną. Są to, poza grupą penicylin, np. blisko z nimi spokrewnione cefalosporyny i monobaktamy, następnie tetracykliny, ryfamycyny, antybiotyki aminoglikozydowe, makrolidowe, polipeptydowe, polimiksyny i inne. Przeważającą większość antybiotyków otrzymuje się w procesach fermentacyjnych podobnych do opisanego, z tą różnicą, że inne są gatunki stosowanych pleśni. Mimo dużej liczby dostępnych obecnie antybiotyków czołowe laboratoria świata, głównie w wiodących koncernach farmaceutycznych, wciąż poszukują nowych rodzajów związków o aktywności antybiotycznej lub pracują nad nowymi pochodnymi. W związku z tym nasuwa się pytanie, po co nam tyle rodzajów antybiotyków, skoro stara poczciwa penicylina G wciąż może być z powodzeniem stosowana, a jej pochodne, jak ampicylina czy syntarpen, podaje się doustnie, w sposób wygodny dla pacjentów? Czy chodzi tylko o drenaż naszych kieszeni, bo, jak dowiadujemy się przy okazji kolejnych wizyt w aptekach, każda nowa generacja leków oznacza automatycznie skokowy wzrost ceny? Otóż problem nie jest taki prosty. Penicylina G nie jest aktywna wobec wszystkich gatunków bakterii. Ponadto z powodu uzyskiwania przez bakterie oporności na poszczególne antybiotyki chemicy i farmaceuci są zmuszeni do poszukiwania nowych pochodnych półsyntetycznych, a także zupełnie nowych klas związków o aktywności antybiotycznej. Na te antybiotyki bakterie jeszcze nie zdążyły się uodpornić, więc można stosować je... do czasu. Potem znów należy szukać nowych. |
...i pod mikroskopem.
Chemia penicyliny
Wzór strukturalny przedstawia penicylinę G (czyli benzylową). Pod wpływem enzymu beta-laktamazy, obecnego w bakteriach, otwarty zostaje czteroczłonowy pierścień beta-laktamowy (na rys. składający się z atomów o numerach 4-5-6-7; rozerwaniu ulega wiązanie 4-7), w wyniku czego antybiotyk traci aktywność. Oporne szczepy bakterii wytwarzają wystarczającą ilość enzymu, aby unieczynnić cały wprowadzony antybiotyk. Aby z penicyliny G uzyskać kwas penicylanowy, surowiec wyjściowy do otrzymywania penicylin półsyntetycznych, stosuje się enzym zwany amidazą penicylanową, który "ucina" łańcuch boczny przyłączony do atomu węgla nr 6 w miejscu między grupami CO i NH, pozostawiając przy węglu nr 6 samą grupę NH2. W następnych etapach chemicznej syntezy w wyniku reakcji podstawienia otrzymuje się pochodne, jak ampicilina, syntarpen, karbenicylina i inne.
Antybiotyk spod płota Duże firmy farmaceutyczne angażują spore środki finansowe w poszukiwanie nowych, często jeszcze niesklasyfikowanych gatunków pleśni, które są zdolne do wytwarzania nieznanych związków antybiotycznych. Trochę anegdotyczna, choć prawdziwa, jest historia dotycząca wielkiej amerykańskiej firmy Squibb, która zainwestowała setki tysięcy dolarów w poszukiwania, prowadzone z rozmachem na całym świecie. Efekty okazały się mizerne, aż w końcu ekipa znalazła bardzo obiecującą grzybnię... w lasku tuż za płotem, ogradzającym firmowe zakłady. W podobnych przypowieściach, traktujących o uzyskaniu wysoce produktywnej pleśni z kuchennej ścierki lub zapomnianego w piwnicy buta, może kryć się sporo prawdy. W środowisku życia człowieka gromadzi się sporo substancji odpadowych, które stanowią często doskonałą pożywkę dla wielu gatunków mikroskopijnych grzybków.
Antybiotyki w mleku i mięsie Po każdym przemysłowym procesie fermentacyjnym, w którym otrzymuje się antybiotyki, po filtracji brzeczki pozostaje kilkadziesiąt ton substancji odpadowej, głównie grzybni. Pomimo procesu przemywania pozostaje w niej sporo antybiotyku, tak więc w nieuzdatnionej postaci masa odpadowa nie nadaje się ani na nawóz, ani na paszę. Proces uzdatniania pozostałości po produkcji penicyliny polega na zakwaszeniu grzybni, aby zawarty w niej antybiotyk uległ dezaktywacji, a następnie na jej wysuszeniu i sprasowaniu w brykiety. W takiej postaci może być łatwo transportowana i użyta np. jako naturalny nawóz, ponieważ nie zagraża już środowisku. Praktyka wykazuje, że nader często te warunki nie są dotrzymywane, a osady pofiltracyjne ze względów ekonomicznych wywozi się bez uzdatniania i składuje na wysypiskach. Stąd substancje czynne przenikają do środowiska, albo mogą być zawłaszczane przez nieuczciwych hodowców, którzy dodają grzybnię do pasz. W ten sposób dokarmiane zwierzęta hodowlane szybciej przybierają na wadze, a uzyskane mleko wykazuje większą trwałość. Obecność antybiotyków zbyt często stwierdza się w mleku, a także w mięsie. Ich źródłem, oprócz paszy, może być podawanie leków zwierzętom w procesie leczenia weterynaryjnego i niezachowywanie okresów karencji. Istnieją także uzasadnione podejrzenia, przedstawiane w czasopiśmiennictwie naukowym, co do nieuczciwości niektórych producentów mleka, którzy celowo dodają antybiotyki do produktu, aby przedłużyć jego trwałość. Szkodliwość aplikowania ludności małych dawek antybiotyków przez dłuższy czas nie podlega kwestii. Powstają różnego rodzaju alergie, a zwłaszcza występuje zjawisko masowej oporności wielu szczepów i gatunków bakterii.
Bolesne zastrzyki i prokaina Ponieważ po podaniu penicylin, zwłaszcza iniekcyjnym, czasami zdarzają się silne odczyny uczuleniowe, a nawet zapaści, przed zastrzykiem zawsze wykonuje się próby podskórne. Dopiero po półgodzinnym oczekiwaniu, jeśli nie wystąpił odczyn, można zaaplikować właściwy zastrzyk. Zastrzyk z roztworu penicyliny krystalicznej jest bardzo bolesny, więc często stosuje się tzw. penicylinę prokainową. Jest to sól penicyliny z prokainą, znanym środkiem znieczulającym. I wszystko byłoby dobrze, gdyby nie fakt, że ta sól jest trudnorozpuszczalna w wodzie, wobec czego trzeba stosować ją w zawiesinie. Kryształki w zawiesinie nie mogą być zbyt małe, bo wtedy woda ich nie zwilża, ani zbyt duże, bo po przypadkowym wprowadzeniu specyfiku do żyły powodują groźne dla życia zatory w mózgu lub płucach. Optymalna wielkość kryształów zawiera się w granicach 20-30 mikronów. Obecnie coraz częściej stosuje się gotową zawiesinę w specjalnym oleju arachidowym, w której wielkość cząstek nie przekracza 10 mikronów. Jak z powyższego wynika, nie ma rozwiązań idealnych, bo albo boli, albo ryzyko wzrasta.
|
|
O wiele wygodniejsze, a także, ze względu na możliwość zakażeń, bezpieczniejsze, jest podawanie antybiotyku drogą doustną, zamiast iniekcji. Cóż jednak zrobić z antybiotykiem o korzystnych parametrach farmakologicznych, który nie przenika przez ściankę żołądka? Otóż jest sposób: można uczynić go bardziej lipofilowym, tzn. zwiększyć jego powinowactwo względem lipidów, z których głównie składają się błony komórkowe. Przedstawioną na rysunku obok cząsteczkę cefuroksymu, antybiotyku należącego do grupy cefalosporyn, modyfikuje się przez estryfikację grupy karboksylowej w pozycji 4 odpowiednią, dostatecznie dużą grupą o właściwościach lipofilowych. Okazuje się, że otrzymany ester 1-acetoksyetylowy cefuroksymu doskonale dyfunduje przez ścianę przewodu pokarmowego, ma jednak jedną małą wadę: jest całkowicie nieaktywny jako antybiotyk. I byłby zupełnie nieprzydatny, gdyby nie fakt, że w tkankach występują niespecyficzne enzymy mukozydowe, które "specjalizują się" w rozszczepianiu estrów o rozmaitej budowie. Kolejność procesów jest więc następująca: już w kilka minut po doustnym podaniu estru cefuroksymu specyfik zaczyna pokonywać barierę ściany żołądka i stopniowo przenika do tkanek i krwi, gdzie "zabierają się" za niego enzymy mukozydowe. W niemal natychmiastowej reakcji hydrolizy estru odtworzeniu ulega macierzysty, wysoce aktywny cefuroksym, i po około 1 godzinie od podania per os (doustnie) osiąga maksymalne stężenie we krwi. Jak wynika z powyższego przykładu, w przypadku farmaceutyków ważna jest nie tylko ich aktywność receptorowa, lecz także stopień i szybkość dyfundowania do poszczególnych tkanek i narządów. Np. penicylina G w zasadzie nie przenika do płynu mózgowo-rdzeniowego, w związku z czym nie jest przydatna w terapii zapalenia opon mózgowych. |
Antybiotyki doustne Cefuroksym - antybiotyk z grupy cefalosporyn (omówienie w tekście obok)
Plazmidy i przenoszenie oporności |
|
Głównym czynnikiem, warunkującym powstawanie oporności bakterii na antybiotyki, są mutacje w tzw. plazmidach, czyli kwasach desoksyrybonukleinowych (DNA), znajdujących się w cytoplazmie komórkowej poza chromosomami. Plazmidy zawierają geny i mogą kodować białka, np. enzymy typu beta-laktamaz, rozkładające penicyliny. Bakterie, wytwarzające duże ilości enzymów, unieczynniających antybiotyk, zyskują na niego oporność. Do innych mechanizmów, uniemożliwiających pożądane działanie antybiotyku, zalicza się zmniejszenie jego zdolności przenikania przez błonę komórkową lub zmiany w strukturze receptorów komórkowych. Ogólnie można powiedzieć, że bakterie wzajemnie "zarażają" się opornością na antybiotyki na drodze wymiany plazmidów np. przez koniugację (kontakt komórek przez nici białkowe). Najciekawszy, lecz najmniej poznany jest proces takiej zmiany struktury genu plazmidu w kontakcie z antybiotykiem, że ów gen potem może kodować enzymy, niszczące ten antybiotyk. W społeczności naukowej przeważa pogląd, że zachodzą tylko mutacje przypadkowe, a bakterie zyskujące oporność są faworyzowane w kontakcie z antybiotykiem, ponieważ inne zostają wyeliminowane. Istnieją jednak także próby tłumaczenia zjawiska przez częstsze występowanie takich mutacji, które pozwalają bakterii przeżyć w niekorzystnych warunkach. Byłby to proces pewnego rodzaju kierunkowania mutacji, o czym miałyby świadczyć uzyskane dane statystyczne. Od razu nasuwa się pytanie, czy podobne zjawiska nie mogłyby mieć miejsca w obrębie genów chromosomalnych? Wtedy, w pewnym stopniu, możliwe byłoby dziedziczenie cech nabytych pod wpływem np. ekstremalnie niekorzystnych warunków. Jednakże dotychczas ta hipoteza nie uzyskała przekonywującego potwierdzenia i nadal przyjmuje się, że wszystkie mutacje są przypadkowe, a ewolucja pozostaje "ślepa". |
W komórkach bakterii, niezależnie od genomu znajdującego się w jądrze, występują koliste chromosomy, tzw. plazmidy. Podczas koniugacji, czyli wymiany materiału genetycznego między bakteriami, wymianie ulegają także plazmidy. Jeśli plazmidy jednego szczepu bakterii, zawierające gen oporności na antybiotyk, np. kodujący beta-laktamazę, przedostaną się do komórek innego szczepu, lub nawet gatunku bakterii, to oporność zostanie przeniesiona. Przemieszczanie plazmidów między komórkami bakterii może także zachodzić podczas transformacji (pobierania materiału z uszkodzonych bakterii) lub transdukcji (przenoszenia plazmidów przez bakteriofagi). Oporność, uzyskana względem całej grupy antybiotyków o podobnej budowie, zwana jest opornością krzyżową, a antybiotyków o podobnym mechanizmie działania - równoległą. |
|
Podstawową cechą wszystkich antybiotyków (z wyjątkiem antymetabolitów, czyli chemioterapeutyków przeciwnowotworowych) jest niewielka toksyczność wobec ustroju pacjenta, natomiast wysoka toksyczność wobec ustroju chorobotwórczej bakterii. Oczywiście różnie to bywa, bo np. streptomycyna może upośledzać słuch, tatracykliny mocno obciążają nerki, a penicyliny, podane iniekcyjnie, czasem powodują szok anafilaktyczny, czyli ciężką zapaść. Ale zazwyczaj antybiotyk nam w zasadzie nie szkodzi. Jaki jest natomiast mechanizm unicestwiania bakterii? Zahamowanie syntezy bakteryjnej błony komórkowej ma miejsce pod wpływem antybiotyków beta-laktamowych, a więc penicylin, cefalosporyn i monobaktamów, a także innych, mniej znanych, jak np. wankomycyna. Efektem jest całkowity rozpad bakterii, spowodowany procesem wyglądającym jak rozpuszczanie błon komórek (tzw. liza). Masowy rozpad bakterii, związany z uwolnieniem dużych ilości toksyn, może nawet spowodować pogorszenie stanu chorego (tzw. odczyn Herxheimera). Inny mechanizm działania wykazują antybiotyki aminoglikozydowe i np. nystatyna: dezorganizują one funkcje błony komórkowej. Nystatyna, która niszczy głównie grzyby, usuwa cząsteczki steroidów z błon i pozostawia wolne kanały, przez które uchodzą metabolity istotne dla życia mikroorganizmu. Pod wpływem aminoglikozydów synteza bakteryjnych białek ulega zaburzeniu; produkowane są związki o niewłaściwej sekwencji aminokwasów, a więc nieprzydatne. Podobny mechanizm działania wykazują także tetracykliny. Bakteria może być również zniszczona w wyniku zahamowania syntezy jej kwasów nukleinowych, co w konsekwencji także uniemożliwia syntezę potrzebnych do życia białek, np. enzymów. Terapia z zastosowaniem ryfamycyn powoduje zaburzenia w transkrypcji DNA. W idealnym przypadku opisane procesy powinny zachodzić wybiórczo w organizmach bakteryjnych ze względu na odmienną ich budowę i funkcje na poziomie molekularnym, natomiast błony komórkowe i kwasy nukleinowe w ustroju człowieka winny pozostawać w kontakcie z antybiotykami nienaruszone. Jednakże żaden antybiotyk nie jest całkowicie specyficzny. Problemy wynikają z tego, że ludzkie mitochondria pod wieloma względami przypominają bakterie i przypuszczalnie właśnie od nich pochodzą; kiedyś mogły zostać pozyskane na drodze tzw. endosymbiozy. Mitochondrialne rybosomy też przypominają bakteryjne i mogą być w pewnym stopniu hamowane przez antybiotyki, działające na prokariotyczne rybosomy bakterii. A więc nie można powiedzieć, że antybiotyki są wobec komórek człowieka całkowicie obojętne.
Antybiotyki klasyfikuje się m. in. według zakresu działania. Intuicyjnie można dojść do wniosku, że czym szerszy zakres działania, tzn. antybiotyk niszczy więcej gatunków bakterii, tym jest to lepszy specyfik. Nic bardziej błędnego! Antybiotyk doskonały powinien niszczyć tylko namnażający się chorobotwórczy szczep bakterii, nie atakując żadnych innych drobnoustrojów. Ponieważ jednak doskonałe leki nie istnieją, antybiotyki o szerokim spektrum działania dodatkowo powodują wyniszczenie jelitowej fizjologicznej flory bakteryjnej, w wyniku czego zaburzeniu ulegają procesy trawienia i przyswajania składników pokarmowych. Podczas długotrwałego leczenia np. tetracyklinami może dojść do zachwiania równowagi i rozwoju grzybic lub opornych na antybiotyk bakterii patogennych w wyniku braku konkurencji ze strony przetrzebionych symbiontów (lekarze nazywają to zjawisko nadkażeniem; często jest ono bardzo niebezpieczne). Jak z powyższego wynika, organizm i potrzebną do jego prawidłowego funkcjonowania florę bakteryjną charakteryzuje bardzo delikatna homeostaza, którą łatwo zaburzyć przez aplikowanie związków o silnej aktywności antybiotycznej. |
Test na rodzaj bakterii.
Na rysunku przedstawiono tzw. szereg biochemiczny. W poszczególnych pojemnikach znajdują się roztwory różnych odczynników, ew. z dodatkiem wskaźników barwiących. Odczynniki te są przetwarzane przez różne gatunki bakterii w różny sposób, np. niektóre powodują fermentację glukozy lub laktozy, inne w środowisku, w którym zostały umieszczone, powodują wydzielanie siarkowodoru, rozkład mocznika lub wytwarzanie indolu. Niektóre gatunki w ogóle nie wchodzą w interakcję z nowym środowiskiem chemicznym i tych przypadkach nie obserwuje się zmian. Powstałe produkty albo mają własne zabarwienie, albo tworzą barwne produkty ze wskaźnikiem. Kombinacja kilkunastu barwnych efektów lub ich braku pozwala zwykle zidentyfikować gatunek bakterii.
Bakterie Gram-dodatnie i Gram-ujemne Często czytamy w ulotkach leków przeciwbakteryjnych, że dany specyfik aktywny jest wobec określonych bakterii Gram-dodatnich i/lub Gram-ujemnych. To dosyć zagadkowe sformułowanie nie ma niczego wspólnego z utratą lub przyrostem wagi, ani też nie wiąże się ze stopniem zjadliwości bakterii. Nazwa pochodzi od nazwiska duńskiego farmakologa i patologa Hansa C. J. Grama, który wprowadził w celach klasyfikacyjnych pewną procedurę barwienia bakterii. Polegała ona na traktowaniu wymazu zawierającego bakterie roztworem fioletu metylowego i płynem Lugola, a następnie na odmywaniu barwnika alkoholem. Te bakterie, które w trwały sposób wiązały fiolet, nazwano Gram-dodatnimi. Należą do nich m. in. gronkowce, paciorkowce, dwoinki zapalenia płuc i maczugowce. Z wymazu innych bakterii fiolet metylowy dało się wypłukać alkoholem; bakterie te w następnym procesie barwiły się na czerwono fuksyną. Są to tzw. bakterie Gram-ujemne i należą do nich np. E. coli, dwoinki zapalenia opon mózgowych, dwoinki rzeżączki, bakterie cholery i dżumy. Niektóre bakterie trudno jednoznacznie zaklasyfikować, np. młode kultury bakterii tężca wykazują właściwości organizmów Gram-dodatnich, zaś starsze - Gram-ujemnych. |
|
Przy terapii antybiotykami optymalnym rozwiązaniem byłoby każdorazowe zastosowanie antybiogramu, czyli pobranie materiału od pacjenta, wyhodowanie z niego szczepu chorobotwórczych bakterii i wybór odpowiedniego, selektywnie aktywnego i mało toksycznego antybiotyku. Zazwyczaj jednak lek trzeba podawać natychmiast, i wtedy stosuje się specyfik z wyboru, dokonywanego na podstawie objawów. Jednak rzeczywistym powodem bywa najczęściej brak odpowiedniego zaplecza laboratoryjnego i środków na tego typu badania. W takiej sytuacji stosuje się dla większej skuteczności antybiotyki o szerokim zakresie działania, co może powodować nadkażenia, grzybice, a przede wszystkim - powstawanie szczepów opornych. Zbyt często kurację antybiotykami przyrównać można do polowania na wilki przy użyciu artylerii, w którym, owszem, likwiduje się drapieżniki, ale przy tej okazji niszczy się cały las. Wyobraźmy sobie następujący, bardzo prawdopodobny scenariusz: symbiotyczne bakterie naszego przewodu pokarmowego uzyskują oporność na świetny antybiotyk nowej generacji, a po jakimś czasie przekazują ją agresywnemu szczepowi drobnoustrojów, atakującemu nasz organizm. Ów doskonały antybiotyk stanie się wtedy dla nas całkowicie bezużyteczny. A więc dobra rada: nie nadużywajmy antybiotyków przy przeziębieniach, zachowajmy je na ten moment, kiedy będą nam naprawdę potrzebne.
Chociaż niestanowiące panaceum i niewolne od działań ubocznych, antybiotyki także dzisiaj można bez przesady uznać za najdoskonalszą broń w walce o życie. Trudno nawet oszacować, ile istnień ludzkich od 30-tych lat XX wieku uratowały produkty metabolizmu mikroskopijnych pleśni. Wielokrotnie większej liczbie chorych przyniosły ulgę w cierpieniu. Dzisiejszy świat stwarza nowe zagrożenia zdrowotne. Wciąż nie potrafimy skutecznie walczyć z coraz groźniejszymi wirusami, nowotwory i choroby układu krążenia zbierają obfite żniwo. Na tym tle w drugiej połowie XX wieku nie poświęcaliśmy dostatecznej uwagi trzymanym w szachu bakteriom, a to przecież właśnie one stanowiły jeszcze do niedawna pierwszą przyczynę zgonów. Obecnie ponownie w natarciu są oporne szczepy, tzw. szpitalne, prątki gruźlicy, a także np. drobnoustroje atakujące w jednostce chorobowej zwanej SEPSĄ. I nie tylko te. Wobec tych zagrożeń nie sądzę, aby era antybiotyków miała się szybko skończyć. Gdyby nie antybiotyki, nie wiadomo, czy dzisiaj główną uwagę poświęcalibyśmy nowotworom, chorobom krążenia i AIDS. n |
Antybiogram
W hodowli badanych bakterii umieszczono papierowe krążki, nasycone różnymi antybiotykami. Ciemne koncentryczne pola oznaczają strefy zahamowanego rozwoju bakterii; z wielkości tych stref, mierzonych wobec krążka kontrolnego, wynika przydatność poszczególnych antybiotyków w zwalczaniu hodowanych bakterii. Lekarz otrzymuje z laboratorium antybiogram w postaci opisu, zaliczającego badane bakterie do wrażliwych, średnio wrażliwych i niewrażliwych na poszczególne antybiotyki.
|
|
Pierwodruk: Antybiotyki - superbroń XX wieku, Wiedza i Życie 9/1997, s. 12-16. Prezentowana wersja jest poszerzona i uaktualniona. |
NIE WIERZĘ W NANOTECHNOLOGIĘ
Jak można nie wierzyć w to, co już istnieje? Przecież skonstruowano węglowe nanorurki i napisy z pojedynczych atomów - odpowiedzą moi oponenci, i będą mieli trochę racji. Schodzimy coraz głębiej w mikro i nanostruktury materii, za pomocą mikroskopów elektronowych obserwujemy helisy DNA, a przy użyciu mikroskopu skaningowego wykrywamy pojedyncze atomy. Więc o co chodzi? Otóż nie wierzę w taką nanotechnologię, jakiej chcą jej twórcy z Drexlerem na czele. Natomiast przewiduję szerokie zastosowanie miniaturyzacji, czyli mikrotechnologii, a także tej gałęzi nauki stosowanej, którą nazwałbym chemią konstrukcyjną. Jej bliską kuzynką, z którą zapewne będzie iść ramię w ramię, jest biotechnologia, dziś wciąż znajdująca się na wczesnych etapach rozwoju. Co planują dzisiejsi nanotechnolodzy? Pragną zestawiać z pojedynczych atomów lub molekuł łożyska, wirniki, różne złożone mechanizmy, które by cięły, szlifowały, a na dodatek komunikowały się z siostrzanymi tworami, badały i analizowały otoczenie, np. we wnętrzu organizmu, a wszystkie zebrane dane przekazywały człowiekowi. Chcą, żeby "molekularni monterzy" konstruowali z pojedynczych cząsteczek coraz bardziej złożone moduły, z których w końcu wyłoniłby się luksusowy apartament mieszkalny, fabryka naturalnego soku grejpfrutowego albo gotowy do startu pojazd kosmiczny - a ta technologiczna synteza od podstaw odbywałaby się według mechanizmu analogicznego do przemiany kilkukomórkowego zarodka w dorosły ludzki organizm. Mają chęć na taką syntezę chemiczną, podczas której atomy można byłoby nanizać na chemiczne wiązania jak koraliki, budując w fizyczny sposób najbardziej wymyślne związki o z góry przewidzianych składach i subtelnych strukturach, a także właściwościach w zakresie wytrzymałości, twardości, elastyczności lub przewodnictwa. Entuzjaści chcieliby w taki sposób modyfikować np. fullereny i nanorurki węglowe. Są to naprawdę piękne wizje, ale więcej w nich utopii, fantastyki i myślenia życzeniowego, niż realnych możliwości. Zastanówmy się, dlaczego. Przede wszystkim weźmy pod uwagę skalę. Nikt na serio nie myśli o zbudowaniu dźwigni o ramieniu np. pięćdziesięciu kilometrów, ani o skonstruowaniu windy na Księżyc. Tak jak astroinżynieria wymaga zupełnie innych metod i konstrukcji niż nasza "przyziemna" technologia, tak samo nie da się liniowo ekstrapolować naszej mechaniki maszyn do nanoskali, ponieważ panują tam odmienne warunki, a także trzeba wziąć pod uwagę inne prawa fizyczne, np. efekty kwantowe. Jednak optymiści donoszą, że pierwsze próby zakończyły się sukcesem, a niektórzy, jak amerykański fizyk Don Eigler, posiedli nawet umiejętność żonglowania atomami. Wymieniony uczony naniósł pojedyncze molekuły ksenonu na powierzchnię niklu, a potem przesuwał je za pomocą tzw. tunelowego mikroskopu skaningowego, który nie tylko lokalizuje atomy lub cząsteczki, ale nawet pozwala na ich przemieszczanie. W ten sposób powstał spektakularny napis "IBM" złożony z pojedynczych atomów, bo właśnie dla tej firmy pracował ów fizyk. Potem w innych laboratoriach wyczarowano kolejne molekularne układanki, jak klastery złota na powierzchni krzemu czy najmniejszy na świecie rysunek człowieka, składającego się z cząsteczek tlenku węgla ułożonych na platynie. Siły, utrzymujące te cząstki na miejscach nie są natury chemicznej, a więc nie powstają jakościowo nowe substancje, lecz te nanokonstrukcje utrzymywane są dzięki oddziaływaniom fizycznym, takim jak np. przyciąganie jonowe. Oddziaływania tego typu są o rzędy wielkości słabsze od wiązań chemicznych, a więc opisane konstrukcje mogą istnieć krótko i tylko w szczególnych warunkach ciśnienia i temperatury. Niemal wszystkie nanotechnologiczne eksperymenty przeprowadzano w wysokiej próżni i w temperaturze zaledwie czterech stopni powyżej zera bezwzględnego, kiedy to następuje coś w rodzaju śmierci cieplnej materii. Dlaczego zastosowano akurat takie warunki? Ponieważ zwiększenie ciśnienia powoduje napływ wielkiej ilości przemieszczających się chaotycznie cząstek gazu, a podwyższenie temperatury to nic innego jak gwałtowniejszy ruch tych cząstek. Ogólnie rzecz biorąc, temperatura pokojowa i ciśnienie 1 atmosfery (to właśnie jest świat, w którym żyjemy) oznacza tak gwałtowne kotłowanie się atomów, że silne tornado nie może się z nim równać, oczywiście po odpowiednim skorygowaniu skali. Nawet w ciałach stałych, jak kamień, drewno czy metal, atomy są w stanie permanentnej wibracji i rotacji. Jakby tego było mało, niektóre słabiej związane atomy mogą ulegać międzycząsteczkowej wymianie, a więc wędrują sobie od molekuły do molekuły, zwłaszcza w cieczach lub gazach. W takich warunkach eksperymenty nanotechnologiczne bazujące na słabych oddziaływaniach typu fizycznego przypominają próby wznoszenia ogrodowej pergoli podczas tajfunu. A przecież chodzi nam o nanomechanizmy, funkcjonujące w normalnych warunkach, w jakich żyjemy, a nie w krainie śmierci cieplnej, kiedy to zamiera wszelki ruch i właściwie ustają procesy energetyczne. Czy w takim razie są jakieś szanse na zstąpienie człowieka pomiędzy atomy? Owszem, są, pod tym wszakże warunkiem, że nie będziemy usiłowali budować czegoś w rodzaju nano-karuzeli, a potem całej miniaturki Disneylandu z pojedynczych atomów złota i palladu. Trzeba po prostu umieć znaleźć się w tym mikroświecie, czyli dostosować się do panujących tam warunków. Przypuszczam, że operowanie pojedynczymi atomami raczej będzie miało niewielkie zastosowanie z powodów już wymienionych. Natomiast umieszczanie układów zbudowanych z setek czy tysięcy atomów (tzw. klasterów) w sieci krystalicznej innych związków chemicznych lub metali może okazać się sensowne i użyteczne np. w produkcji półprzewodników, precyzyjnym geometrycznym domieszkowaniu substancji lub w wytwarzaniu układów scalonych czy komputerowych bramek logicznych o rozmiarach liczonych zaledwie w dziesiątkach nanometrów. Okazuje się, że oddziaływania fizyczne w obrębie klasterów w ciałach stałych mogą być wystarczająco silne, aby oprzeć się "tornadom cząstek". Np. skupiska zawierające po kilkaset atomów złota osadzano w precyzyjnie wybranych miejscach na powierzchni krzemu nawet w temperaturze pokojowej, i ta struktura pozostawała nienaruszona przez kilka dni. To mało, ale jak na początek zupełnie nieźle. Nic mi natomiast nie wiadomo o eksperymentach z układaniem atomów w chemicznie, czyli trwale związane molekuły - zapewne próby były, bo to niezwykle spektakularne doświadczenie, ale musiały spełznąć na niczym. Bo czym innym jest przesunięcie atomu i upuszczenie go na powierzchnię, z którą połączą go np. oddziaływania jonowe, a zgoła czym innym zmuszenie do przereagowania, i to w temperaturze bliskiej zera bezwzględnego. Przypuszczam, że będzie to nad wyraz trudne zadanie, a nawet jakby w pojedynczych przypadkach się powiodło przy użyciu wspomnianego mikroskopu skaningowego, trzeba byłoby powtórzyć syntezę dziesięć miliardów razy pomnożone przez dziesięć miliardów, aby uzyskać liczbę molekuł np. zmodyfikowanej aspiryny na jedną jedyną tabletkę. A więc wygląda to na przynajmniej dziesięć miliardów syzyfowych prac. Na początku wspomniałem, że wierzę w mikrotechnologię - ale to już zupełnie co innego niż klasycznie definiowana nanotechnologia. W tej dziedzinie chodzi wyłącznie o miniaturyzację typu zegarkowego - żeby kółeczka się kręciły, mikrosilniczki wprawiały w ruch, a skrzydełka owadziego typu podrywały w powietrze. Badania nad "mechanicznymi robakami" są już zaawansowane, te sztuczne stwory potrafią pełzać, włazić w różne dziury i szczeliny, wiercić otwory, ciąć, a także nagrywać dźwięki i obrazy. Ponadto potrafią łączyć się i formować węże, aby np. wspiąć się na stopień schodów. Rozmiary aparacików są jeszcze zdecydowanie za duże, a zasięg i jakość transmisji za słaba, ale przypuszczam, że ich prawdziwa miniaturyzacja i udoskonalenie nastąpi już za kilka lat. Taki robal, nafaszerowany mikrotechniką i elektroniką - być może, że w jego brzuchu zmieści się mikrokomputerek o mocy dzisiejszego multimedialnego PC - zostanie zapewne na początek użyty do bezprzewodowej diagnostyki i chirurgii endoskopowej. Już dziś w Japonii testowany jest pierwszy robot, poruszający się wewnątrz jelita i pobierający próbki do analiz. Można sobie wyobrazić, że niezadługo do naszych ciał uzyskają dostęp samobieżne mikromechanizmy wielkości małego koralika albo nawet główki od szpilki, wyposażone w kamery, laserowe noże, mechaniczne frezy i generatory ultradźwięków. Takie lekarskie robale wejdą do jelit, żył, serca i woreczka żółciowego, aby dokonać analizy, wizji lokalnej, wyciąć co trzeba lub miejscowo zaaplikować lek. A potem same wyjdą, ewentualnie przewiercą się na powierzchnię ciała, oczywiście stosując miejscowe znieczulenie. Nieco trudniejszy problem konstrukcyjny pojawia się w przypadku latających robaków-zwiadowców, bo te wymagają sporego źródła energii, a ono waży i z kolei utrudnia im wzlot w powietrze. W Stanach Zjednoczonych zoolog Charles Ellington na badania nad tzw. entomopterem, czyli sztucznym owadem, otrzymał 20 milionów dolarów od wojskowej agencji, która, jak można przypuszczać, pieniędzy w byle czym nie topi. Wynika stąd, że wywiadowcze ważki już niedługo będą polatywały nad chińskim murem, polami ryżowymi Korei czy górami Persji. Powróćmy teraz do nanoskali, przemieszczając się o kilka pięter niżej w drodze między atomy, a więc do uprzednio wspomnianej chemii konstrukcyjnej, która, moim zdaniem, już niebawem zacznie odgrywać kluczową rolę w globalnej technologii. Czym różni się ona od klasycznej nanotechnologii? Ano tym, że jest chemią, a nie makroskopową techniką łączenia detali, ekstrapolowaną w molekularne mrowisko. Chemia zaś, jak sama nazwa wskazuje, wykorzystuje mocne wiązania chemiczne, a nie słabe fizyczne siły przylegania (adhezji) czy delikatne oddziaływania elektrostatyczne (przyciąganie ładunków elektrycznych). Ponadto procesy chemiczne mogą przebiegać tylko w podwyższonej temperaturze, kiedy cząstki są odpowiednio rozpędzone, nie zaś na cieplnym cmentarzysku, jakim jest zakres bliski zera bezwzględnego. Chemia konstrukcyjna będzie niczym innym jak chemią sztucznych enzymów. Co to jest enzym, każdy wie, ale na wszelki wypadek przypomnę: to chemiczna cząsteczka białka o ściśle zdefiniowanej budowie i wewnętrznej geometrii, która "poluje" na określone inne molekuły. Jak taką rozpozna, chwyta ją i przytrzymuje - po prostu obie do siebie pasują, jak klucz do zamka. Może wtedy ją np. rozszczepić na dwoje, dodać do niej lub ująć atom wodoru czy tlenu, albo zbliżyć do innej cząstki i zmusić obie do przereagowania. Gdy akcja jest skończona, enzym "wypluwa" obrobioną cząsteczkę i szuka następnej. Oczywiście nie jest to jakieś rozumne szukanie, lecz oczekiwanie, aż klucz sam trafi do zamka. Wbrew pozorom w natłoku chaotycznie zderzających się molekuł nie jest to takie trudne, i m.in. właśnie możliwość zaistnienia takich zjawisk odróżnia naszą buchającą ciepłem strefę życia od zastygłego świata superniskich temperatur. Oddajmy na chwilę głos badaczowi Richardowi Terra: Ewolucja nie zajmuje się poszukiwaniem prostszych lub bardziej eleganckich rozwiązań, zadowala się tym, co działa. Wiele możliwych struktur i funkcji nigdy nie zostało wypróbowanych, wiele materiałów nie wykorzystanych, na wiele cykli reakcji chemicznych przyroda nigdy nie "wpadła" tylko dlatego, że nigdy nie pojawiły się w żadnej żywej komórce. No właśnie. Chemia konstrukcyjna będzie zajmowała się budowaniem najprostszych, lecz wciąż sprawnych enzymów, o "eleganckiej" strukturze, którą wymyślą ludzie bazując na prawach przyrody, nie stosując, jak ślepa ewolucja, metody prób i błędów. Można zacząć od naturalnego biologicznego enzymu i upraszczać go lub modyfikować do nowych zadań, likwidując typową dla natury nadmiarowość, albo też, znając reguły rządzące jego aktywnością, zbudować całkiem nowy od podstaw. Pod pojęciem "zbudować" rozumiem tu normalną chemiczną syntezę, a nie fizyczne składanie pod mikroskopem skaningowym. Co będzie można otrzymywać metodą chemii konstrukcyjnej? Najbardziej znaczące sukcesy przewiduję w medycynie, ponieważ powstaną zupełnie nowe leki, oparte na aktywności takich sztucznych enzymów. Kto wie, czy odpowiednio przystosowane supermolekuły nie będą "spacerowały" po naszych genach i zakamarkach komórek, naprawiając uszkodzenia lub przydając nam nowych cech fenotypowych. Ponadto będzie można łatwo i czysto przeprowadzać syntezy chemiczne obecnie stosowanych, a także nowych związków, np. klasycznych leków, materiałów konstrukcyjnych i paliw. Myślę, że łatwiejsze będzie uzyskiwanie energii w przyszłych generacjach ogniw paliwowych. Nowymi metodami wyprodukuje się włókna, być może o składzie identycznym z naturalnym, a także superwytrzymałe nici z węglowych nanorurek i inne, także nieorganiczne materiały. A więc stosunkowo skromne perspektywy, zwłaszcza w porównaniu z wizjami nanotechnologów lub autorów sf (np. Stephensona w Diamentowym wieku), ale zapewniam, że i tak zrewolucjonizują technologię, i to nie tylko chemiczną. Natomiast nie przewiduję, że w najbliższej przyszłości uda się zaprząc te enzymy do budowy od podstaw całych skomplikowanych konstrukcji technologicznych, słowem: nie będą to wielofunkcyjne nanoroboty. Jak dotychczas łatwiej było rozwiązać zagadki kodowania cech w genach i modyfikacji tych cech, niż zgłębić tajemnicę, w jaki sposób z pojedynczych komórek zarodka rozwija się cały organizm o zróżnicowanych tkankach. Dopóki tego nie zbadamy, nie mamy co myśleć o inżynierii enzymatycznej, choć nie wykluczam, że kiedyś, w odległej przyszłości, pomysł uda się zrealizować. Być może, że wtedy nastanie era technologii biologicznej (technobiologii), a ludziom usługiwać będą sztuczne zwierzęta i rośliny, perfekcyjnie dostosowane właściwościami i kształtem do sprawowanej funkcji. Na koniec oddajmy głos sławnemu fizykowi, laureatowi Nagrody Nobla Richardowi Feynmanowi, który już w 1959 roku prorokował: Na poziomie molekularnym mamy nowe rodzaje sił, nowe możliwości, nowego rodzaju efekty. Problemy wytwarzania i replikacji materiałów będą tam zupełnie inne. ...Inspiracją są dla mnie procesy biologiczne, w których siły chemiczne wykorzystywane są w powtarzalny sposób. Nic dodać, nic ująć. Przypuszczam, że rewelacje na temat nadchodzącej ery nanotechnologii są przesadzone, i że nie grożą nam ani inteligentne bystry, ani zjawiska pokazane w Neuromancerze Gibsona. Jestem przekonany, że prawdziwymi wyzwaniami dla człowieka początku trzeciego tysiąclecia są inżynieria genetyczna i sztuczna inteligencja - nad implikacjami tych cywilizacyjnych fenomenów naprawdę warto się zastanawiać. I wybrać odpowiednią strategię, przy optymistycznym założeniu, że jakikolwiek wybór będzie możliwy. Artykuł uaktualniony w 2006 r.
|
|
CHEMIA CZY WOLNA WOLA?
Naukowcy są zdania, że należy wreszcie zdjąć romantyczne zasłony z buduarów miłości i pokazać, czym naprawdę jest uczucie, każące przyszłym kochankom śpiewać pod oknami swoich wybranek. Czym jest owo niebagatelne źródło energii, pozwalające marzyć w bezsenne noce, godzinami szykować się na spotkanie, spędzać drugie tyle na czarującej, choć częstokroć bezsensownej rozmowie, a potem, już w łóżku, trwonić olbrzymie ilości kilokalorii na gorące uściski. Użyjmy naukowego mikroskopu w miejsce różowych okularów, a ścisłych terminów chemicznych zamiast lirycznych sonetów, ponieważ właśnie chemia jest bezpośrednią przyczyną tych problemów, albo, inaczej mówiąc, tych szczęśliwych chwil, zwanych miłością. Okazuje się bowiem, że kandydaci na kochanków rozsiewają w atmosferze lotne feromonowe związki organiczne, będące po prostu atraktantami płciowymi, aby potem, już w fazie powłóczystych spojrzeń i niby przypadkowych muśnięć dłoni, rozpocząć wewnętrzną produkcję narkotyków. Tak jest - zakochani są dosłownie napompowani chemicznymi związkami pobudzającymi, lub, jak kto woli, dopingującymi.
Zacznijmy od feromonów w świecie zwierząt. Powszechnie wiadomo, że mrówki wydzielają szczególne substancje zapachowe, którymi znaczą szlaki wędrówek w poszukiwaniu żywności, markują zajęty teren, informują o źródłach pożywienia, a także rozpoznają swojaków z tego samego mrowiska. Sygnał do ataku lub ucieczki też nadawany jest chemicznie. Lotne feromony płciowe owadów mogą oddziaływać na odległości rzędu kilometrów w niezwykle małych stężeniach, nawet w postaci pojedynczych molekuł, podrażniających czułki samców. Charakterystyczne jest zjawisko, że feromony działają zgodnie z przeznaczeniem tylko w pewnym zakresie stężeń; jeśli stężenie jest zbyt duże, owady przestają reagować na ich obecność albo wpadają w szał erotyczny, kopulując wściekle nie tylko z samicami, ale także np. z kamieniami i łodygami traw. Tego rodzaju wyczyny kończą się śmiercią z wyczerpania. Feromon płciowy może więc być doskonałym środkiem owadobójczym, naturalnym i chemicznie nieszkodliwym dla otoczenia, bo stosowanym w bardzo małych stężeniach. U człowieka sprawa komplikuje się. Zaznacza się dominujący wpływ świadomości na chwilowe odruchy, a poza tym myjemy się i stosujemy kosmetyki oraz cały arsenał naturalnych i sztucznych środków zapachowych. Czy jednak wpływ feromonów zostaje całkowicie wyeliminowany? Istnieją podstawy do przypuszczeń, że tak nie jest. Organy powonienia człowieka są selektywnie niezwykle wyczulone na związki o nazwach androstenol i androstenon. Nasz nos wykrywa je w mniejszych stężeniach iż jeden z najczulszych instrumentów technicznych, zwany chromatografem gazowym, a zmywacz do paznokci pachnie nam 5000 razy słabiej! Przeprowadzono doświadczenia, wykazujące "wabiące" oddziaływanie androstenolu zarówno na mężczyzn, jak i na kobiety, polegające między innymi na wyborze znaczonego tym związkiem miejsca lub przedmiotu. Stwierdzono wzmożoną wrażliwość kobiet na jego zapach w połowie miesięcznego cyklu, czyli w okresie największej płodności. Można przypuszczać, że schemat erotycznego oddziaływania zapachowego u człowieka zaczyna się od wydzielania androstenolu przez mężczyznę. Nie jest do końca wyjaśnione, czy wydzielanie to jest stałe w czasie, czy też wzmaga się na widok atrakcyjnej kobiety. Zapach lotnego feromonu jest oczywiście tylko jednym z bodźców w grze, obok wyglądu, sposobu bycia, okazywanej inteligencji itd. Na ile ważnym - nie wiadomo, bo działa głównie na podświadomość. Gdy dochodzi do etapu, który ogólnie możemy nazwać fazą zalotów, kobieta zaczyna wytwarzać feromony kontaktowe, czyli związki mniej lotne, działające na mniejsze odległości. Są to krótkołańcuchowe kwasy organiczne, obecne w wydzielinie z pochwy. Zapach tej wydzieliny silnie oddziaływuje na mężczyznę, wzmagając jego przedsiębiorczość i aktywność. Ponieważ każda kobieta ma swoją niepowtarzalną kompozycję feromonową, a mężczyzna koduje ją i rozpoznaje przy kolejnych zbliżeniach, więc następuje silne wzmocnienie bodźca na zasadzie skojarzeń. Dlatego kocha się zapach kochanej kobiety... Jednakże na długo przed prawdziwym zakochaniem, jeszcze na etapie samych początków flirtu, rusza wewnętrzna synteza substancji narkotycznych. Potężny zastrzyk fenyloetyloaminy, związku pobudzającego ośrodkowy układ nerwowy, jest powodem drżenia rąk, przyspieszonego bicia serca i wewnętrznego napięcia. Do akcji włączają się także dopamina i noradrenalina, obie o działaniu pobudzającym podobnym do efektu fizjologicznego adrenaliny, amfetaminy lub efedryny. Dosyć szybko dochodzi do fizjologicznego uzależnienia, czyli, innymi słowy, rozwija się etap gorącej lub namiętnej miłości. Ludzie kochliwi lub podrywacze typu Casanovy to po prostu jednostki uzależnione bardziej niż inni, niezwykle wrażliwe na spadek stężenia fenyloetyloaminy we krwi. Cóż winne te kobiety i ci mężczyźni, nerwowo rozglądający się w autobusach i na ulicach, a w kawiarniach i na przyjęciach stroszący piórka i wysilający całą swoją elokwencję, aby oczarować następnego partnera lub partnerkę? Cierpią oni na typowy narkotyczny głód, który każe im iść dalej i dalej drogą kolejnych podbojów. W ten sposób spijają samą śmietankę miłości, doznając najsilniejszej ekstazy podczas inicjacji, kiedy wydzielanie substancji pobudzającej jest największe. Po pewnym czasie następuje przyzwyczajenie do narkotyku, zmniejsza się również jego wydzielanie. Faza "gorącej" miłości mija, dla wielu jest to równoznaczne z przemijaniem miłości w ogóle. Wszak mówi się, że prawdziwa miłość trwa rok, dwa, najwyżej kilka lat. Jednakże i na tę ewentualność nasza wewnętrzna fabryka chemiczna jest doskonale przygotowana. Rozpoczyna się mianowicie produkcja endorfin, związków kojących i przeciwbólowych o działaniu podobnym do morfiny. Substancje te są syntetyzowane tylko w obecności partnera i dają poczucie bezpieczeństwa, stabilizacji i życiowego optymizmu. Ludzie, którzy dobrze czują się w takiej atmosferze, przetrwają w małżeństwie przez następne kilkadziesiąt lat i na pewno doczekają diamentowych godów. Jak widzimy, na każdym etapie miłosnego zaangażowania utrata partnera powoduje trudny do zniesienia narkotyczny głód, będący efektem braku stałego dopływu związków oddziaływujących na psychikę. Czy z powyższego wynika, że jesteśmy kukiełkami, tańczącymi na molekularnych łańcuchach węgla, tlenu i azotu? W pewnym sensie tak, bo naszprycowanie fenyloetyloaminą lub endorfinami będzie miało taki sam skutek fizjologiczny, jaki dałoby się obserwować w procesie uwolnienia naturalnego. Z drugiej strony nie, bo polecenie uwolnienia wychodzi z wyższego poziomu świadomości, gdzie odbywają się złożone procesy psychiczne, świadczące o naszym człowieczeństwie. Można by powiedzieć, że jest to jedynie odsyłanie badaczy z ich mikroskopami na wyższe piętro reakcji chemicznych. Czy jednak na pewno wszystko da się wytłumaczyć chemią węgla i wodoru? Kochajmy się romantycznie, zachowujmy jednak czujność. Można wyobrazić sobie doskonale funkcjonującą agencję matrymonialną, stosującą syntetyczny feromon-lubczyk z rodzaju aktywatorów zakochania do dyskretnego spryskiwania zapraszanych parami klientów. Kobieta-wamp mogłaby na każdym spotkaniu pachnieć perfumami, zawierającymi lotną pochodną fenyloetyloaminy, no i miłość gotowa. Kto wie, czy już teraz nie można kupić takich rzeczy w co lepszych perfumeriach. Firmy kosmetyczne nie próżnują, zatrudniając sztaby naukowców, a wyniki najnowszych badań otoczone są tajemnicą. Zresztą substancje aktywne, których wystarczy śladowa ilość, nie muszą znajdować się w perfumach. Mogą być w szamponie, zwykłym mydle, a nawet w kawie, którą pija się codziennie w pracy. A potem - jest już za późno.
Artykuł uaktualniony w 2006 r. |
|
PIEKIELNY TRÓJKĄT
W środowiskach naukowych zdecydowanie przeważa opinia, że za katastrofy i nieraz dosyć tajemnicze zniknięcia statków i samolotów w trójkącie bermudzkim należy winić niestabilność klimatyczną regionu. Rzeczywiście, jeśli dokładniej prześledzimy mapy pogody tego obszaru, stwierdzimy nagminność występowania tajfunów, burz i zawirowań typu tornado na styku ciepłych, tropikalnych frontów i chłodniejszych mas powietrza. Tego rodzaju zaburzenia atmosferyczne generalnie nie są rzadkością w pobliżu zwrotników, ale na Karaibach dodatkowo sprawę komplikuje bliskość kontynentu amerykańskiego. Ów kontynent właściwie nie ma równoleżnikowo usytuowanych łańcuchów górskich, wszystkie rozciągają się południkowo, co umożliwia swobodne przemieszczanie się mas powietrza z północy na południe lub w przeciwnym kierunku. Łatwo sobie wyobrazić, co musi się dziać na styku gorącego zwrotnikowego frontu o wilgotności 95% i temperaturze 40oC i chłodnych, suchych mas atmosferycznych z głębi lądu. Nie dość, że "chmury się urywają", bo połowa pary wodnej z powietrza skrapla się raptownie, to na styku ocierających się o siebie gazowych bąbli powstają trąby powietrzne, czyli właśnie tornada. Taki lej pędzi granicą obu obszarów z prędkością pospiesznego pociągu i wydaje łoskot jak walący się Empire State Building. Trudno przed nim uciec, ale można próbować, siedząc w szybkim samochodzie. Jeśli się nie uda, biada, bo siła ssąca i niszcząca wiru jest olbrzymia i mało co mu się oprze. Nic dziwnego więc, że tak kapryśna aura sprzyja katastrofom morskim i powietrznym w tej części globu, a więc także na obszarze między Florydą, Kubą i Bermudami, gdzie natężenie ruchu towarowego, pasażerskiego i patrolowego jest szczególnie duże. Zastanawia wszakże liczba doniesień o zniknięciach i innych dziwnych zjawiskach, dotycząca właśnie tego regionu. Przecież w innych miejscach kuli ziemskiej też obserwuje się zwrotnikowe anomalie pogodowe, a ruch statków i samolotów jest porównywalnie intensywny. Na przykład w okolicach Japonii i u wybrzeży innych państw dalekiego wschodu. Tam, a także w pobliżu Australii i Nowej Zelandii, także szaleją niszczycielskie tajfuny. Ale z żadnego, najbardziej nawet niebezpiecznego zakątka Ziemi nie nadeszło przez ostatnie dwa wieki tyle meldunków o niewyjaśnionych katastrofach i zaginięciach bez śladu. Znikały nawet duże statki i całe eskadry samolotów, a ich szczątków nigdy nie odnaleziono. Czy jest to tylko legenda, która rodzi następne, czy może coś się kryje za tymi tajemniczymi zjawiskami? Coś lub, jak wierzą niektórzy, ktoś? Nie wszyscy naukowcy twierdzą, że zagadkowe zjawiska w tym regionie mieszczą się w granicach normy. Przyjrzyjmy się wynikom dociekań tych, którzy uznają obszar za szczególny i chcieliby wyjaśnić, na czym polega jego odmienność. Zacznijmy od wody. Jej cząsteczka o wzorze sumaryczym H2O zbudowana jest z atomów tlenu i wodoru, które bardzo silnie różnią się powinowactwem elektronowym. Na dodatek nie jest liniowa, kąt między wiązaniami tlenem - wodór wynosi 105o. Co z tego wynika? To, że drobiny wody nie można porównać z gładką kuleczką, identyczną ze wszystkich stron. Nie jest wszystko jedno, którą jej część rozpatrujemy, albowiem jest silnie spolaryzowanym dipolem - czyli elementarnym magnesem o bardzo zróżnicowanych ładunkach na każdym z końców. W efekcie łatwo tworzy średnio trwałe wiązania hydratacyjne z molekułami wielu innych związków chemicznych, orientując się wobec nich albo stroną naładowaną dodatnio (wodór), albo ujemnie (tlen). Zwykle parametry dla procesu uwodnienia są korzystne, bo te inne molekuły też charakteryzują się cząstkowymi ładunkami, powstającymi w wyniku polaryzacji, lub całkowitymi po zjonizowaniu. Typowym przykładem hydratu jest pięciowodny siarczan miedziowy, tworzący pięknie zabarwione, niebieskozielone kryształy. Przy ogrzewaniu w otwartym naczyniu zachodzi proces odszczepienia i odparowania wody, i w rezultacie otrzymujemy bezwodny siarczan w postaci białego proszku. Proces jest odwracalny, to znaczy po dodaniu wody ów proszek zabarwi się na początkowo obserwowany kolor. Okazuje się, że wiele gazów, w ich liczbie metan, w pewnych warunkach temperatury i ciśnienia tworzy z wodą stosunkowo trwałe hydraty, które są ciałami stałymi. W temperaturze kilku stopni i pod ciśnieniem, panującym w oceanie na głębokości 500 metrów, metan z wodą formują bezbarwne, szkliste bryły, z wyglądu przypominające lód. Oczywiście jeśli temperatura wzrośnie lub ciśnienie zmaleje (albo zajdzie i to, i to), hydrat rozkłada się, wydzielając gazowy metan i wodę. W praktyce przemysłowej po raz pierwszy problem hydratów metanu wystąpił w początkowej fazie eksploatacji rurociągu naftowego, biegnącego przez Alaskę. Przepływ ropy niespodziewanie utrudniała biała gąbczasta substancja, osadzająca się wewnątrz rur. Analiza wykazała, że był to właśnie hydrat, produkt reakcji wilgoci i rozpuszczonego w ropie metanu, zachodzącej w niskich temperaturach. Później okazało się, że hydraty mogą powstawać także w okolicach... podzwrotnikowych. Na stoku stromego obrywu szelfu kontynentalnego w okolicach Bermudów przeprowadzono badania za pomocą echosondy. Stwierdzono, że ów stok zbudowany jest z hydratu metanu i uwięzionego pod jego skorupą metanu gazowego. Taka warstwowa struktura powstała w wyniku osuwania się materii organicznej w postaci szczątków żywych organizmów z lądu i płytszych partii oceanu w głąb basenu morskiego. Zasypywane szczątki ulegały procesom gnilnym z uwolnieniem metanu, czyli inaczej gazu błotnego. Metan przenikał przez złoże i w kontakcie z wodą tworzył hydrat, bo na tej głębokości nawet w tropikach jest zimno, a ciśnienie panowało wystarczające. Dalszy proces gnilny zasypanej materii organicznej wzbogacał złoże metanu gazowego, uwięzionego pod szczelną skorupą hydratu. Ale takie oceaniczne osypisko nie jest tworem ukształtowanym raz na zawsze. Jeśli ruszy podmorska lawina albo nastąpi tektoniczny wstrząs, nawet słaby, spora część górotworu może się osunąć. Wtedy olbrzymie ilości gazowego metanu uwalniają się i rój pęcherzyków płynie ku powierzchni. Woda morska zmienia się w coś w rodzaju wody sodowej. Więc co z tego? Okazuje się, że implikacje takiego zjawiska mogą być zadziwiające. Zróbmy mały eksperyment z okręcikiem z kory drzewnej. Jeśli puścimy go na wodę, którą nasycimy odpowiednią ilością powietrza w postaci drobnych pęcherzyków, okręt natychmiast pójdzie na dno jak kamień! Bierze się to stąd, że przedmiot może pływać dzięki sile wyporu, która jest równa jego ciężarowi. Czym cięższa ciecz, po której urządzamy pływanie, tym większy wypór przy tym samym zanurzeniu, i odwrotnie. Woda nasycona pęcherzykami gazu ma za mały średni ciężar właściwy, aby unieść nasz okręcik z kory. Jest za rzadka, aby unieść cokolwiek, czy to będzie kawałek drzewa, prawdziwy statek, czy np. pływająca platforma wiertnicza. Wszystko natychmiast pójdzie na dno. A więc już mamy hipotezę, próbującą wyjaśnić nagłe zniknięcia dużych pełnomorskich statków bez jakiegokolwiek śladu. Zatonięcie w nasyconej gazem wodzie jest tak błyskawiczne, że nie ma nawet czasu na nadanie sygnału SOS. Tym bardziej, że katastrofa nadchodzi zupełnie niespodziewanie. Jeśli ktoś zdąży wyskoczyć w kamizelce ratunkowej, nic mu to nie da. Też zatonie. Jeśli gazu będzie dosyć, zatoną nawet same kamizelki! Gdy w chwili katastrofy na dnie oceanu przesypują się góry hydratów i mułu, nic dziwnego, że nie można później znaleźć wraku; zostaje on pogrzebany pod hałdami osadów. Nie zawsze erupcja gazu będzie na tyle gwałtowna, aby zatopić statek. Wtedy w wyniku tarcia wody i milionów pęcherzyków metanu powstaną ładunki elektryczne, co z kolei wyłączy z użycia kompasy i radio. Z reguły cieczą chłodzącą silniki statku jest woda morska w pierwotnym obiegu. Jeśli zastąpi ją mieszanina wody i gazu, efektywność chłodzenia znacznie się obniży, co doprowadzi do przegrzania i samoczynnego awaryjnego wyłączenia silników. Czyli mamy już prawie wszystkie elementy sensacyjnego opisu katastrofy w trójkącie bermudzkim: radio nie działa, kompas wariuje, silniki same stopują. Tylko... marsjan wciąż nie widać. Nie wiadomo, jak zachowa się samolot w powietrzu wzbogaconym w metan. Środowisko będzie rzadsze, o znacznie mniejszej gęstości. Maszyna wpadnie w metanową chmurę nagle i pilot zapewne straci panowanie nad sterami. Z powodu naelektryzowania atmosfery przestaną działać urządzenia pokładowe, co z pewnością przyspieszy katastrofę. Pozostaje jednakże otwarta kwestia, dlaczego hydraty nie powodują katastrof u wybrzeży Japonii czy w Kanale La Manche? Przypuszczalnie po prostu ich tam nie ma, do wytworzenia takiego metanowego lodu potrzebne są dość szczególne warunki, nie mające jednak niczego wspólnego ze zjawiskami nadprzyrodzonymi. Owszem, stwierdzono obecność hydratów w Oceanie Arktycznym u wybrzeży Syberii, ale tam ruch pasażerski jest raczej mały. Występuje ów uwodniony i wymrożony metan także w Morzu Północnym, lecz nie w postaci stromych stoków, które mogłyby ulegać gwałtownym osunięciom. Jeśli więc gaz wydziela się, to stopniowo, jak z naszych słowiańskich bagien, i nie powoduje żadnych zagrożeń. W miarę rozwoju nauki wiele zjawisk z obszaru nadprzyrodzonego lub z enklaw magii zostaje niejako "udomowionych", przechodząc do kategorii wydarzeń całkowicie normalnych i dających się wyjaśnić na podstawie znanych praw natury. Dawniej piorun był gniewem bogów, a hipnoza pozostawała domeną czarowników. Dziś błyskawice pracują w świetlówkach, sugestią hipnotyczną leczy się bóle brzucha, a problemami tzw. psychotroniki zajmują się nie tylko spirytualiści, lecz również ścisłe umysły. Kto wie, czego dowiemy się za lat kilka. W sprawie trójkąta bermudzkiego jestem optymistą: wiele jego zagadek doczeka się w najbliższym czasie rozwiązania. Zapewne pojawi się jeszcze więcej nowych pytań, ale to między innymi stanowi o uroku poznawania świata. Mimo swojej elegancji i prostoty przedstawiona powyżej hipoteza "metanowa" pozostanie hipotezą tak długo, aż zostanie zweryfikowana i potwierdzona zarówno w laboratoriach, jak i w środowisku naturalnym. Jako źródło informacji wykorzystano m. in. film "Trójkąt bermudzki", reż. John Simmons, Geo Films. |
Artykuły o upowszechnianiu nauki |
|||
|
|
||
Kilka uwag o upowszechnianiu nauki
"Upowszechnianie nauki" to termin niezwykle szeroki, a więc nieostry znaczeniowo i, co za tym idzie, mało precyzyjny. Chwila zastanowienia nad tym pojęciem owocuje szeregiem natychmiastowych wątpliwości i pytań. A więc, po pierwsze: czy przez upowszechnianie należy rozumieć tylko działalność, mającą na celu przekazywanie wiedzy do szerokich rzesz społeczeństwa, czyli po prostu popularyzację, czy może także publikowanie prac sensu stricte naukowych przez badaczy przyrody, techniki i zjawisk społecznych? A może, uogólniając pojęcie jeszcze bardziej, także wdrażanie naukowych osiągnięć do praktyki technologicznej? Rozważając powyższe, a także dalej postawione kwestie będę starał się analizować je zgodnie ze swoją wiedzą i przekonaniami, co oczywiście nie znaczy, że wnioski zadowolą każdego, a nawet że wszystkim wydadzą się słuszne. Gdyby jednak artykuł stał się przyczynkiem do dyskusji na tematy, związane z niezwykle istotnym zagadnieniem upowszechniania wiedzy i nauki w Polsce w okresie przemiany ustrojowej, otwarcia kraju na świat i ogólnocywilizacyjnych tendencji globalizacyjnych, cel tej publikacji będę uważał za spełniony. Na wstępie należy przjrzeć się dotychczas formułowanym definicjom (zwięzły przegląd: Edward Hałoń, Nauka 2/97, 185). Wielce zasłużony dla upowszechniania nauki prof. Bogdan Suchodolski ustalił w 1962 roku termin "upowszechniania nauki, które przekazuje informacje o jej metodach i osiągnięciach ludziom pracującym i czyni to w sposób zupełnie ścisły" (Nauka Polska 1/62). Autor ten rozróżnia także między dziełem naukowym, a upowszechniającym naukę lub, inaczej, popularnonaukowym. Nieco inna jest nowsza definicja prof. Gerarda Labudy (Nauka Polska 1-2/86), który pisze: "Kumulatywne określenie >>upowszechnianie nauki<< zawiera w sobie w gruncie rzeczy aż trzy kierunki działań, a więc: 1. upowszechnianie nauki w ścisłym tego słowa znaczeniu, to jest innowacji będących w stadium stawania; 2. upowszechnianie wiedzy, wyrastające z twierdzeń i uogólnień, uznanych przez naukę za aktualny stan jej poglądu; 3. upowszechnianie techniki i technologii. Z kolei prof. Haman (Nauka 2/97, 177) opisowo tłumaczy anglosaski zwrot science communication jako "ciągle rozszerzającą się działalność stymulowana potrzebą lepszego wzajemnego zrozumienia pomiędzy ludźmi nauki i osobami nie zajmującymi się zawodowo nauką, lub ogólniej, społecznością". Sens określenia "upowszechnianie", zgodny z etymologią tego słowa, oznacza działanie, skierowane do szerokiego forum odbiorców, nie będących specjalistami - więc jednak mogą to być ludzie nauki, lecz z innych specjalności. Przychylę się do definicji B. Suchodolskiego, który nie rozszerzał nadmiernie zakresu znaczeniowego omawianego pojęcia (podobna jest definicja J. Hamana). Nie sądzę również, aby używanie określenia "popularyzacja nauki" było deprecjonujące czy merytorycznie zawężające. Przecież zasadniczo o to chodzi w tak rozumianym upowszechnianiu nauki, aby niespecjalistom dostarczyć podsumowującej informacji naukowej w zrozumiały dla nich sposób, a także umożliwić pogłębianie wiedzy w kierunkach wybranych przez samych zainteresowanych. Określenie "upowszechnianie wiedzy" jest nieco szersze, bo może dotyczyć także informacji niekoniecznie przez naukę weryfikowalnych, lecz będzie w zasadzie tożsame, jeśli weźmiemy pod uwagę "wiedzę naukową". Zgodnie z powyższym nie sądzę, aby publikowanie artykułów ściśle naukowych, a więc opisywanie i udostępnianie wyników aktualnie prowadzonych badań, należało zaliczyć do upowszechniania nauki. Tego rodzaju działalność, będącą oczywistym etapem końcowym każdej pracy naukowej, nazwałbym raczej wymianą informacji w środowisku badaczy. Od kiedy istnieje nauka, pojmowana w dzisiejszy lub chociaż zbliżony do dzisiejszego sposób, ma miejsce publikowanie wyników, a prace te, ze względu na swoją złożoność, specyfikę i wąską z reguły specjalizację, adresowane są zwykle do innych ludzi nauki, i to przeważnie z tej samej dziedziny, w której badania prowadzi autor pracy. Dopiero później te specjalistyczne artykuły zostają przetworzone, popularyzatorzy streszczają je (oczywiście jeśli są tego warte!), spłaszczając i kondensując ich treści, upraszczają je i w ten sposób dostosowują do powszechnego odbioru, ale to już zupełnie inna sprawa. Rzecz w tym, aby cyrkulowania specjalistycznej informacji, stanowiącego integralny i absolutnie konieczny etap każdej pracy badawczej w środowisku, reprezentującym otwarty model nauki, nie mylić z upowszechnianiem wiedzy. Upowszechnianie wiedzy, przynajmniej w prezentowanym przeze mnie rozumieniu, jest elementem kształcenia społeczeństwa, czyli działaniem planowym, częścią koncepcji rozwoju państwa czy regionu, aktywnością o mniejszym lub większym nasileniu, wręcz wynikiem decyzji politycznej, która może, ale nie musi zapaść. Bez stałego przepływu informacji nie ma nauki, natomiast bez upowszechniania nauki społeczeństwa mogą istnieć, ba, mogą nawet, w sprzyjających warunkach i ograniczonych okresach, zupełnie dobrze prosperować. Wdrażania przemysłowego wynalazków i innych naukowych osiągnięć również nie zaliczam do upowszechniania nauki, biorąc pod uwagę przytoczone ograniczenia definicyjne, aczkolwiek końcowym efektem tego procesu jest praktyczne i szerokie zastosowanie produktu myśli naukowej. Pomimo tego należy rozróżniać pojęcia "upowszechnianie" i "zastosowanie". To pierwsze dotyczy, w pewnym uproszczeniu, zwielokrotnienia i rozprowadzenia pośród obywateli zarówno idei, koncepcji, jak i, w uogólnieniu, przedmiotów w określonej postaci czy kształcie, zaproponowanym przez upowszechniającego. A więc są to przedsięwzięcia, podejmowane przez organizacje upowszechniające wiedzę lub przez popularyzatorów, a ich adresatem jest społeczeństwo, przy czym ów adresat zazwyczaj pozostaje stosunkowo biernym podmiotem. Zgoła odmienny jest mechanizm wdrożeń technologicznych, przy których przedstawiciele przemysłu w selektywny sposób czerpią to, co jest im potrzebne, ze skarbnicy osiągnięć nauki. Ze względu na ścisłą specjalizację i specyfikę, a także zróżnicowane profile produkcyjne, inicjatywa musi przyjść od producentów, a właściwie od laboratoriów przemysłowych. Sami wytwórcy najlepiej wiedzą, co jest im potrzebne do bieżącej innowacji procesów, a jaką koncepcję warto kupić w celu stworzenia zupełnie nowej technologii. Owszem, naukowcy obeznani z technologią mogą (i powinni) występować z inicjatywami specjalistycznymi i ukierunkowanymi, lecz inicjatywy te siłą rzeczy pozostaną działaniem indywidualnym i raczej sporadycznym, a jeszcze rzadziej zwieńczy je sukces. Natomiast akcje szerokiego upowszechniania wszelkiej myśli naukowej, która przedstawicielom instytucji upowszechniających wydaje się "podatna technologicznie", nie spełnią swojego zadania i zawsze pozostaną działaniami w dużym stopniu fasadowymi. Zupełnie odmienną sprawą, godną silnego poparcia, jest ułatwianie przepływu informacji, np. przez wsparcie dla krajowych czasopism naukowych o profilu technologicznym lub wydawanie takich czasopism. Jednakże działania takie, według przytoczonej wyżej definicji, nie stanowią typowego upowszechniania nauki, ponieważ czasopiśmiennictwo naukowe integralnie należy do zjawiska zwanego współczesną nauką i musi w jej granicach funkcjonować, niezależnie od różnego rodzaju przedsięwzięć upowszechniających i popularyzujących. Z drugiej strony nowoczesny, prężny przemysł nie potrzebuje zachęty, jego przedstawiciele i tak wertują najnowsze publikacje naukowe, bo tego wymaga zachowanie konkurencyjności na rynku. Inna rzecz, że Polska wciąż znajduje się w stadium transformacji, reformy nie są dokończone, a więc sytuacja jest szczególna. Jednakże, zamiast trochę na siłę forsować wdrożenia i innowacyjność, może lepszą drogą byłoby dokończenie reform i wyzwolenie rezerw innowacyjnej inicjatywy w zakładach przemysłowych? Powróćmy do wątku głównego, czyli upowszechniania nauki, rozumianego jako "niesienie kagańca" wiedzy do statystycznego obywatela. Zanim ów trud się podejmie, trzeba upewnić się, że działanie jest sensowne, a więc należy rozważyć pytanie, czy w ogóle warto upowszechniać naukę, i czy ów strategiczny cel polityczno - społeczny godny jest wielkiego przecież wysiłku i niemałych nakładów? Czy nasz statystyczny obywatel życzy sobie takiego działania, adresowanego bezpośrednio do niego, czy zechce przeznaczyć na odbiór skierowanego do niego przekazu swój czas, i czy będzie się to jemu opłacało? Patrząc od drugiej strony, czy nowoczesny organizm państwowy zainteresowany jest w dokształcaniu obywateli i czy kasę państwową stać na tego rodzaju długofalową inwestycję? Jeśli te pytania potraktować trywialnie jako slogany, można odpowiedzieć również sloganami, że oczywiście, "nauka do potęgi klucz". Ale z wymiany sloganów niewiele wynika, zwłaszcza w zakresie analizy i tworzenia koncepcji. Być może gloryfikacja nauki i jej dorobku jest efektem bezwładnościowym po okresie naukowego elephantiasis - wszak obliczono, że gdyby wzrostowy trend w tej dziedzinie ludzkiej działalności, notowany po półmetku XX wieku, utrzymał się dłużej, to niebawem cała ludność Ziemi składałaby się z naukowców (lecz, naturalnie, nie z uczonych!). Oczywiście jest to redukcja do absurdu metodą liniowej ekstrapolacji, ale nawet w tego rodzaju matematycznych żartach jest ziarnko prawdy. Od dłuższego czasu widoczny jest wyraźna tendencja: rozwinięte gospodarczo państwa zmniejszają wydatki na naukę. Jeszcze 30 lat temu w USA na ten cel były przeznaczane spore środki, potem badawczy budżet stopniowo zmniejszano. Dziś otrzymanie grantu badawczego z NIH czy NSF jest niesłychanie trudne, co rodzi wiele frustracji w tamtejszym środowisku naukowym. Podobnie jest w innych krajach; u nas wydatki na badania zmniejszono w roku 1998 do 0,47% PKB. Można powiedzieć, że jeśli chodzi o tempo tych redukcji, jesteśmy w ścisłej światowej czołówce. Nie czas i miejsce, aby te zjawiska komentować, lecz bez wątpienia stanowią one znaczący symptom globalnych zmian cywilizacyjnych. Lecz jak w kontekście tych procesów odnieść się do upowszechniania nauki? W miarę rozwoju nauki, który w wielu "gorących punktach" jest naprawdę błyskawiczny (każdy tydzień przynosi istotne nowości), zwiększa się rozziew między społeczną świadomością, dotyczącą tej wiedzy wraz z jej praktycznymi aplikacjami, a naukowym "frontem", który przemieszcza się często w obszarach całkowicie abstrakcyjnych nie tylko dla zwykłego zjadacza chleba, ale także dla osób z wyższym wykształceniem. Przez ostatnie dziesięciolecia zgromadzono tak wielką wiedzę o świecie, że upowszechnienie i praktyczne zastosowanie nawet tylko tej jej części, która jest naprawdę istotna, w naszym ogólnie słabo wyedukowanym społeczeństwie zajęłoby następne dziesięciolecia, i to bez względu na tempo przesuwania się "frontu naukowego". Nie warto więc, rozważając kwestię upowszechniania wiedzy w Polsce, oglądać się na światowe tendencje chłodzenia przegrzanej naukowej koniunktury. My mamy wciąż olbrzymie braki do nadrobienia, zresztą nie tylko my. Skarbnica wiedzy jest zasobna, można czerpać do woli i przekazywać bliźnim. W tym miejscu powraca pytanie zasadnicze: czy warto? Co i komu z tego przyjdzie? Jedną z powszechnie znanych doktryn rządzenia jest utrzymywanie społeczeństwa na niskim poziomie edukacji, ponieważ taką "szarą masą" łatwiej kierować. Nie ma wtedy wysublimowanych żądań intelektualnych, wystarczy grać na niskich, podstawowych popędach i odruchach, a w zamian za pracę dawać "chleb i igrzyska". Kiedyś taki model sprawowania władzy mógł rzeczywiście dobrze się sprawdzać, zwłaszcza w państwach zasobnych w ludność i bogactwa naturalne. Dziś już nie wystarcza, i to z paru powodów. Kluczową przyczyną konieczności otwarcia na wiedzę jest fakt, że cywilizacyjna technologia wkroczyła na niemal każde stanowisko pracy. Czysta praca fizyczna w coraz mniejszym stopniu jest udziałem ludzi, natomiast ludzie w coraz większym stopniu zmuszeni są do współpracy z maszynami. Te maszyny nie tylko nastręczają trudności w sterowaniu ze względu na stopień swojego skomplikowania, ale także oferują tak szerokie spektrum możliwości działania i wyboru, że niezbędny jest wysoki stopień intelektualnego zaangażowania ze strony obsługującego je człowieka. Klawiatura komputera ma około stu przycisków, ale przecież nie wystarczy znać ich funkcje, żeby efektywnie wykorzystywać tę maszynę do pracy. Nadinformacyjność cywilizacyjna stawia ludzi przed ciągłymi wyborami, a dokonanie właściwego wyboru wymaga odpowiedniego zasobu wiedzy. Aby np. dotrzeć do potrzebnych danych, nie wystarczy znać sposób, bo ten, który był znany wczoraj, dziś może być nieaktualny, lecz należy, na drodze logicznego rozumowania, określić nową, już dostępną drogę. A do tego znów potrzebna jest wiedza, także ta o efektywnych sposobach rozumowania. Reasumując, jeśli chcemy jako naród uczestniczyć w światowym procesie globalizacji kultury i technologii, każdy Jan Kowalski i każda Maria Majewska muszą wiedzieć, z czego ten świat się składa, jak funkcjonuje i jak się w nim poruszać. No dobrze, odpowie ktoś, ale są państwa, nawet mocarstwa, w których średni poziom edukacji jest niższy niż u nas. Na przykład w USA przysłowiowy "czerwony kołnierzyk" (w tamtejszym slangu: farmer z opalonym karkiem) czasami je puszkowane mięso dla psów, bo nie umie czytać, a o tym, gdzie leży Warszawa, nie ma nawet bladego pojęcia (niektórzy tamtejsi ludzie po studiach, których o to pytałem, przypuszczali, że... może gdzieś w Rosji). Pomimo tego nasycenie najnowszą technologią jest w tym kraju większe niż w Europie Zachodniej, a nauka stoi najwyżej w skali światowej. Wynika stąd, że wiedza praktyczna, potrzebna do funkcjonowania w nowoczesnym społeczeństwie, jest u Johna wystarczająca; być może, że jest ona selektywna i ograniczona, ale pragmatyczne kryterium efektywności ma decydujące znaczenie. Nasz Jan musi się więc trochę poduczyć, a także przeprofilować swoją dzisiejszą wiedzę, aby lepiej przystawała do współczesnego świata; edukacja szkolna bezwzględnie powinna mieć w tym procesie swój istotny udział. Wracając zaś do porównań, to nasze przymiarki do światowego mocarstwa nie mają wielkiego sensu, ponieważ skala zjawisk jest diametralnie inna, np. 1% PKB oznacza zupełnie co innego u nich i u nas. Nie można również pominąć aspektu położenia geopolitycznego: odmienne uwarunkowania, inna perspektywa narodowego bytu. Dochodzimy do podstawowego pytania: o cele strategiczne. Każdy odpowiedzialny polityk próbuje zrobić coś w tym kierunku, przynajmniej w pierwszej połowie swojej kadencji. Jaką perspektywę ma przed sobą społeczeństwo o niskim poziomie wykształcenia, nie potrafiące w pełni wykorzystać współczesnych możliwości cywilizacyjnych? Zwłaszcza jeśli składa się ono ze stosunkowo niewielkiego narodu, otoczonego przez szybko rosnących sąsiadów. Taki naród, jeśli jest wystarczająco liczny i jeśli jego zapóźnienie rozwojowe nie jest zbyt wielkie, może stać się doskonałym, chłonnym rynkiem zbytu dla lepiej gospodarczo rozwiniętych państw o innowacyjnej gospodarce. Może też, w pewnym stopniu, pełnić rolę gospodarczego zaplecza, na którym dokonywane są inwestycje ze względu na tanią siłę roboczą - pracowników można tam bez trudu werbować w grupach silnie motywowanych aspiracjami materialnymi. Państwo, zamieszkiwane przez taki naród, ma coraz mniejszy wkład w rozwój cywilizacji, odsuwa się na coraz dalsze peryferie, staje się słabym gospodarczo konsumentem i traci stopniowo na znaczeniu. Wiemy dobrze, że w dostatecznie odległym horyzoncie czasowym samodzielny i suwerenny byt takiego państwa może być zagrożony. Z powyższego wynika, że odpowiedni poziom społecznej wiedzy konieczny jest zarówno do bieżącego funkcjonowania współczesnego państwa, jak i do realizacji strategii narodowego bytu. Nie waham się nawiązać w tym miejscu do pozytywistycznej koncepcji "pracy od podstaw", która, nawet w tak odmiennych uwarunkowaniach historycznych, jakie obecnie istnieją, niewiele straciła na znaczeniu od czasów Wokulskiego. W tym kontekście pojawia się interesujące pytanie o kulturotwórczą rolę powszechnej edukacji, lecz temat ten wykracza daleko poza ramy niniejszego artykułu. Mówiąc o upowszechnianiu wiedzy i nauki trzeba wskazać na kształcenie szkolne jako podstawę, do której korzeniami sięgają wszystkie inne formy edukacji. Dla olbrzymiej większości populacji kontakt z nauką zaczyna się i kończy w szkolnej ławce, a więc należy zadbać o to, aby przyniósł on należyte rezultaty. Ponadto efekt wszelkich wysiłków, mających na celu upowszechnianie nauki w społeczności ludzi dorosłych, okaże się w dużym stopniu chybiony, jeśli adresaci upowszechniania nie posiądą przedtem odpowiedniego minimum wiedzy i należytych umiejętności. Ziarno najplenniejszej rośliny nie wykiełkuje na litej skale, a skała ignorancji bywa w kwiecie wieku naprawdę trudna do skruszenia. Daleki jestem od zamiaru analizowania rozlicznych i niesłychanie odpowiedzialnych funkcji szkoły, pragnę tylko zaakcentować, czego od szkoły oczekujemy w kontekście poruszanych tu problemów. Przede wszystkim wykreowania w młodych umysłach całościowej wizji świata, w której jest miejsce zarówno na kosmologię, jak i na mikrobiologię i genetykę, na przekrojową historię ludzkości i ojczystego kraju, jak i na przegląd mitów i odwiecznych marzeń człowieka. Taka wizja nie może zanadto obrastać w szczegóły, bo jako całość traci na wyrazistości lub wręcz ulega deformacjom. Po drugie, nauka szkolna powinna położyć szczególny nacisk na przygotowanie adeptów do indywidualnego odnalezienia się i skutecznego działania we współczesnym świecie, czyli nastawić się na kształtowanie postaw praktycznych, pragmatycznych i racjonalnych, aktywnych i poszukujących. Dopiero tak przygotowanemu człowiekowi, wykształconemu uniwersalnie, choć niekoniecznie drobiazgowo, można w ramach upowszechniania nauki skutecznie przekazywać wiedzę na temat najnowszych odkryć i cywilizacyjnych dylematów etyczno-moralnych, umożliwiać kształcenie permanentne, a także proponować współdecydowanie o kierunkach dalszego rozwoju nauki i technologii. Dla innych, których wiedza nie osiągnęła swoistej "masy krytycznej", publikacje upowszechniające osiągnięcia naukowe pozostaną jednorazowymi, częściowo tylko zrozumiałymi sensacyjkami, a na samoedukację ci ludzie okażą się całkowicie zaimpregnowani, ponieważ nawet nie będą w stanie zrozumieć słownictwa popularnonaukowych artykułów. Każde społeczne działanie ma swojego adresata. Podmiotem wysiłków upowszechniających wiedzę naukową i bohaterem tego artykułu jest Jan Kowalski, statystyczny obywatel RP, średnio wyedukowany i trochę (nie za bardzo) ciekawy świata (ponieważ ci bardziej ciekawi dadzą sobie radę bez naszych wysiłków). Można sobie jednak wyobrazić innych adresatów, np. decydentów ze sfer rządowych lub parlamentarnych. Na tym etapie rozważań dochodzimy do istotnego problemu podziału środków, czyli budżetowych wydatków na naukę. Na popularności zyskuje pogląd, że upowszechniając naukę można doprowadzić do zwiększenia tych wydatków. Teza ta wydaje mi się wątpliwa. Każda partia polityczna w okresie przedwyborczym szermuje szczytnymi hasłami, nie żałując tak zwanej "kiełbasy wyborczej". Po przejęciu władzy działalność nowych elit rządzących ma programowo zmniejszyć bezrobocie i jednocześnie w odczuwalny sposób zwiększyć dochody ludności, a także poprawić stan bezpieczeństwa publicznego i opieki zdrowotnej. W następnej linii obietnic znajduje się m.in. zwiększenie wydatków na naukę i edukację. Tak jest na razie, dopóki "uprawianie nauki" jest obiegowym i chwytliwym hasłem pozytywnym, na równi z ochroną środowiska naturalnego lub np. ochroną zwierząt doświadczalnych przed stresem, bo w przyszłości, jak wyżej wspomniałem, wymowa tego hasła może ulec odwróceniu. Stopień społecznej akceptacji dla nauki będzie zależał od tego, z czym opinia publiczna skojarzy tę dziedzinę ludzkiej działalności: czy np. z nowymi i skutecznymi lekami przeciw nowotworom, czy może z transgenicznym monstrum i kastami zunifikowanych ludzkich klonów? Na razie slogan o pozytywnej wymowie funkcjonuje bez zarzutu, choć aplikuje się go społeczeństwu jedynie do dnia wyborów; potem budżet nauki staje się zazwyczaj obiektem pierwszych cięć, a opinia publiczna ma zerowy wpływ na ten stan rzeczy, wpływ zresztą całkowicie potencjalny, bo jej zainteresowanie sprawami finansowania nauki jest równie małe. I trudno się dziwić, bo statystyczny Kowalski ma zupełnie inne problemy. Tego, że wielkość państwowych wydatków na naukę w żadnym stopniu nie jest zależna od średniego poziomu społecznego wykształcenia, dowodzi spadek nakładów na badania przy jednoczesnej intensyfikacji popularyzacji nauki w krajach zachodnich w latach 80-tych. Wydaje się, że lobby naukowe popełnia błąd, planując zwiększyć swój budżet tą drogą. Zupełnie innym adresatem są elity rządzące, jednakże wahałbym się użyć terminu "upowszechnianie" czy "popularyzacja" w odniesieniu do zabiegów, mających na celu przekazanie tym grupom społecznym informacji o nauce, jej potrzebach i osiągnięciach, a także prognoz rozwojowych. Po pierwsze, elity niejako z założenia reprezentują najwyższy poziom intelektualny, więc określenie "upowszechnianie", które nawiązuje do powszechnych, czyli podstawowych procesów, jest trochę nie na miejscu, zwłaszcza że do rządu i parlamentu wchodzi coraz więcej ludzi z najwyższymi naukowymi tytułami. Lepszym określeniem jest "bieżące informowanie", choć nie jestem przekonany do skuteczności, a nawet celowości przekazywania tego rodzaju informacji. W przeciwieństwie do roli cyrkulacji informacji w środowisku naukowym, którą można porównać do fundamentalnych funkcji krwiobiegu w organizmach żywych, szczegółowe informowanie ministrów i posłów np. o osiągnięciach na polu badania parametrów trących części maszyn i urządzeń, albo expressis verbis o ogromnych potrzebach aparaturowych w zakresie badania struktury molekularnej polimerów termoodpornych, często trąci czczą retoryką i ma chyba niewielki sens, a zwłaszcza niewielki wpływ (oczywiście niczego nie ujmując badaniom w wymienionych kierunkach). Decydenci związani z kręgami rządowymi i sejmowymi z zasady, a także z konieczności, bazują w swoich ocenach na specjalistycznych, zamawianych ekspertyzach, które są jednocześnie wystarczająco przekrojowe i podbudowane konkretnymi danymi liczbowymi, aby można było na ich podstawie uprawiać politykę. Chcę być dobrze zrozumiany: nie twierdzę, że tego rodzaju naukowy lobbing i szczególnego rodzaju promocja nauki nie mają żadnego sensu, sądzę wszakże, że efektów takiej działalności nie powinno się przeceniać. Wszystko wskazuje na to, że to nie ludzi ze sfer rządowych powinno się poddawać procesom upowszechniającym naukę, lecz au rebours, to rządowi powinno zależeć na jej upowszechnianiu w społeczeństwie. Wskazywałem już na wymiar pragmatyczno-cywilizacyjny i narodowo-strategiczny tego procesu. Nie od rzeczy będzie jeszcze wspomnieć o celach bliskich, osiągalnych w ciągu niewielu lat: szybszym rozwoju gospodarczym, większej innowacyjności i przedsiębiorczości, a także wydajności pracy i motywacji do jej wykonywania w społeczeństwie na wyższym poziomie intelektualnym. Ponieważ poziom ten ściśle wiąże się z rozumieniem dzisiejszego świata w kategoriach współczesnej nauki, rząd powinien wspierać wszelkie procesy upowszechniania wiedzy i nauki w oparciu o wymierne kryteria ekonomiczne. Te kryteria ekonomiczne powinny działać w obie strony, bo dziś nie ma nic za darmo (zresztą nigdy nie było, tylko kiedyś nie mówiło się, kto płaci, lecz kto korzysta). Jak jednak tego dokonać, żeby Jan Kowalski, podmiot działań upowszechniających wiedzę i naukę, nie tylko zechciał brać udział w procesie, ale jeszcze wyłożył pieniądze z własnej kieszeni? Realizacja takiego przedsięwzięcia wydaje się tak trudna, że niemal niemożliwa, ale, na szczęście, tylko pozornie. W polskim społeczeństwie istnieje zapotrzebowanie na rzetelną i ciekawie zaprezentowaną informację naukową. Dość wspomnieć, że czasopismo "Wiedza i życie", a także "Świat nauki" rozchodzą się w naprawdę dużych nakładach, legendarna już telewizyjna "Sonda" miała jeden z najwyższych współczynników oglądalności spośród wszystkich programów, a zainteresowanie takimi imprezami masowymi, jak "Festiwal nauki" czy "Piknik naukowy", znacznie przekracza prognozy organizatorów. Również dobre książki z serii popularnonaukowych rozchodzą się we względnie wysokich nakładach. Co stanowi motor napędowy tak dużego zapotrzebowania? Po pierwsze: ciekawość. Można naszemu społeczeństwu przypisać niski stopień kultury i wykształcenia, ale z drugiej strony trzeba przyznać, że wykazuje ono silną motywację do zdobywania informacji. Szczególną tradycją, kultywowaną przez wszystkie środowiska, jest oglądanie wieczornych wiadomości telewizyjnych, co nie w każdym, nawet bardziej od nas rozwiniętym kraju, jest tak powszechnym zwyczajem. Nasz Kowalski jest ciekawy, co powiedzą o katastrofach, wojnach i rozgrywkach politycznych, ale także chciałby jakoś wytłumaczyć sobie świat i zjawiska w nim zachodzące, a jedną z dróg, przybliżających do tego celu, jest naukowa percepcja rzeczywistości. To oczekiwanie warto wykorzystać. Po drugie: statystyczny obywatel doskonale zdaje sobie sprawę z tego, że otaczająca go cywilizacja zmienia się w coraz szybszym tempie, i że zmiany te wywodzą się wprost z najnowszych osiągnięć nauki. Żeby orientować się, nie wypaść z obiegu, pozostać konkurencyjnym wobec innych w miejscu pracy, a także w towarzystwie, musi mieć "oczy i uszy otwarte". Po trzecie - wszyscy żywimy nadzieję na lepsze jutro, na zwycięstwo nad chorobami, na dłuższe życie, na znalezienie rozwiązań uniwersalnych. Być może, że właśnie odkryto życie na Marsie, albo wynaleziono lekarstwo na raka, warto więc śledzić ostatnie doniesienia. Nasz Kowalski jest świadomy, że takie lekarstwo może kiedyś przydać się także jemu. Mając podatną glebę, należy zastanowić się nad ulepszeniem lub intensyfikacją działań, a nade wszystko nad dostosowaniem ich do specyfiki polskich warunków, zarówno społecznych, jak i gospodarczych. Aby zaspokoić potrzeby i utrafić w gusta różnych adresatów, skuteczne upowszechnianie nauki powinno odbywać się wielotorowo. Sposoby są znane, chodzi tylko o odpowiednią organizację, a także o uwzględnienie lokalnych potrzeb i uwarunkowań. Przypomnę szeroko praktykowane w świecie działania: wydawanie książek i czasopism popularnonaukowych, audycje telewizyjne i radiowe, w tym telewizja edukacyjna, prowadzenie działów naukowych w gazetach codziennych i czasopismach, imprezy typu festiwalowego, otwarte wykłady i odczyty, uniwersytet powszechny i kursy wszelkiego rodzaju, rozprowadzanie tematycznych kaset video i płyt optycznych (CD-ROM-y), oraz naukowe serwisy informacyjne czasopism i różnych instytucji czy organizacji w internecie. Nie roszcząc sobie pretensji do całościowego omówienia, które znacznie przekraczałoby skromne ramy tej pracy, chciałbym ustosunkować się do kilku wybranych zagadnień, związanych z upowszechnianiem wiedzy w Polsce. Tradycyjnym sposobem popularyzacji wiedzy i nauki jest wydawanie książek o określonym profilu tematycznym, napisanych w ciekawy i przystępny sposób. Niestety, książkowy rynek wydawniczy w Polsce uległ załamaniu w 1989 roku i do dzisiejszego dnia nie powrócił do normalnego stanu. Przyczyny tego załamania były różne, m.in. pauperyzacja społeczeństwa, zalew tłumaczeń książek z zagranicy (niestety, przeważnie nie najwyższej jakości), a także brak efektywnej dystrybucji, która do chwili obecnej nie funkcjonuje jak należy. Niekorzystne tendencje zostały wzmocnione przez ogólnocywilizacyjne zjawisko odwrotu od korzystania ze słowa drukowanego na korzyść różnych sposobów przekazu audiowizualnego. Czyżby więc należało zaniechać wydawania książek i, uprzedzając kulturowe trendy, zacząć inwestować wyłącznie w nośniki nowoczesnego pisma obrazkowego? Uważam, że taka decyzja byłaby z pewnością przedwczesna, a prawdopodobnie także generalnie chybiona. Przedwczesna dlatego, że książka wciąż pełni niezwykle istotną rolę w upowszechnianiu kultury, zarówno całościowym, jak i bardziej ukierunkowanym - wiedzy naukowej. Być może, że rola książki będzie nadal malała, że powstaną tak sprawne, ogólnodostępne i przyjazne dla użytkownika techniki przekazu audiowizualnego, że oddziaływanie słowa drukowanego zostanie zmarginalizowane, zwłaszcza w dziedzinie nauk ścisłych. Ale nie zostanie wyrugowane do końca i całkowicie z bardzo prostego powodu, a mianowicie odmiennej percepcji neurofizjologicznej bodźców audiowizualnych wobec tych związanych z czytaniem (nie oglądaniem!) pisma, złożonego ze znaków nieobrazkowych. Obraz oglądany, np. wideoklip, dociera do mózgu "taki, jaki jest", po prostu zostaje zarejestrowany. Nie musi być dalej przetwarzany i analizowany, a czy wzbudzi jakiekolwiek skojarzenia lub refleksje, zależy wyłącznie od przygotowania, wiedzy i wrażliwości osobniczej odbiorcy. Całkowicie odmienna jest procedura odczytywania pisma literowego: określone fragmenty mózgu, inne niż przy percepcji wizualnej, ulegają aktywacji w celu wykonania pracy myślenia abstrakcyjnego. Litery same w sobie znaczą niewiele, natomiast pojedyncze słowa to znaczeniowe moduły, a zdania i kontekst stanowią odmienne, kolejne piętra procesu abstrakcyjnego kojarzenia. Są ludzie, którzy dobrze odbierają słowo pisane, często nawet lepiej niż po przetłumaczeniu go na komunikat obrazowy, najwidoczniej praca "abstrakcyjnej deszyfracji" w semantycznym ośrodku mózgowym odpowiada im bardziej niż łatwiejsza, ale mniej angażująca rejestracja obrazu. Być może wiąże się to z tym, że procesy: szyfrowania, wykonywany przez autora, i odszyfrowania, będący udziałem czytelnika, nigdy nie są całkowicie tożsame, w związku z tym czytanie jest zawsze jakąś formą twórczości, wymagającej choćby minimalnego wykorzystania wyobraźni. Kreatywna współpraca odbiorcy odgrywa niezwykle istotną rolę podczas lektury utworów z dziedziny literatury pięknej, lecz jej udział jest nieodzowny podczas zapoznawania się z każdym tekstem. Trudno określić, jaki wpływ na odbiór tekstów niebeletrystycznych ma wyobraźnia czytelnika i na ile jej włączenie może być czynnikiem inspirującym. Wydaje się więc, że dla ludzi, którzy wolą czytać niż oglądać, zawsze będzie warto pisać i wydawać książki. Co nie oznacza, że obraz nie może uzupełniać, a tam, gdzie to potrzebne, dookreślać słowa drukowanego. Zapotrzebowanie na dobrą i niedrogą książkę istnieje, o czym świadczy powodzenie pozycji przecenionych i tłok wokół stoisk z tanimi lub dawniejszymi wydaniami. A ponieważ drukowanie nakładów mniejszych niż 10 tysięcy nie spełnia celu, jakim jest upowszechnianie wiedzy, bo wtedy książka dociera tylko do części księgarń w części kraju, ceny detaliczne muszą być niskie. Jak ogólnie wiadomo, zbić ceny można przez podniesienie nakładu i równoległą minimalizację kosztów produkcji, np. w wyniku zastosowania tańszego papieru, poprzestaniu na skromniejszej szacie graficznej i, co jest swoistym paradoksem, wydrukowaniu książki za granicą, gdzie można to zrobić taniej niż w kraju (nawet uwzględniając koszty transportu). Wielkim wyzwaniem pozostaje promocja książki, a więc jej odpowiednie reklamowanie. Koszty efektywnej promocji zazwyczaj przekraczają możliwości wydawnictw popularnonaukowych. Niewątpliwie fenomenem jest fakt, że czasopisma w Polsce rozchodzą się w nakładach o rząd wielkości większych niż książki. Niezależnie od przyczyn zjawiska, które są wielorakie i złożone, należy taką sytuację wykorzystać, tym bardziej, że popularyzacja nauki w świecie drukowanych mass-mediów staje się modna. Co prawda dziennikarzom, a także wielu czytelnikom, zależy głównie na sensacjach naukowych, ale tym bardziej nie można zostawić spraw tylko własnemu biegowi. Do upowszechniania wiedzy w niespecjalistycznych, popularnych czasopismach powinni włączyć się popularyzatorzy, a także związani z popularyzacją naukowcy. Wszystko wskazuje na to, że zapotrzebowanie na taką działalność będzie rosło. Wydaje się, że brakuje ogniwa organizacyjnego, które zapewniłoby efektywny kontakt autorów z żywiołowym rynkiem czasopism. Telewizja publiczna robi dobre programy edukacyjne dla dzieci i młodzieży, emitowane zwykle w porach niskiej oglądalności (wczesne popołudnie). Zapewne te programy pomyślane są jako uzupełnienie edukacji szkolnej i przeznaczone dla uczniów, którzy właśnie powrócili z zajęć do domu. Natomiast niemal zupełnie brak audycji popularnonaukowych dla pozostałej, pracującej części społeczeństwa, które mogą być oglądane późnym popołudniem i wieczorem. Również wiadomości telewizyjne powinny zawierać, poza doniesieniami o polityce, konfliktach zbrojnych i katastrofach, także informacje z frontu naukowego, na temat zastosowań odkryć i wynalazków, jak również o zagadnieniach związanych ze środowiskiem naturalnym i szeroko rozumianą biosferą. Warto w tym miejscu podnieść po raz kolejny propozycję utworzenia osobnego telewizyjnego kanału ogólnopolskiego, który emitowałby programy popularyzujące naukę, jak naukowy serwis informacyjny, wykłady i dyskusje panelowe na "gorące" tematy, filmy przyrodnicze, audycje o nauce polskiej, cykle edukacyjne w postaci kursów, aktualne doniesienia o internetowych źródłach informacji, sprawozdania z ciekawszych konferencji naukowych itd. Stacja może dodatkowo pełnić funkcję popularnych na zachodzie "weather channels", czyli nadawać co godzinę prognozy pogody, a także krótkie, 5-minutowe wiadomości ogólne. Dobrym zwyczajem byłoby włączenie do programu "wideo-klipów" z muzyką klasyczną i interesujących audycji z dziedziny sztuki, a także nauk humanistycznych. Ponieważ kanał byłby z założenia publiczny, czyli bezpłatny, nie obyłoby się bez reklam, chociaż ich profil raczej powinien obejmować np. samochody i komputery, a nie dezodoranty i środki higieniczne "always". Przypuszczam, że do współpracy przy tworzeniu takiej stacji można zaprosić prężną i dynamicznie rozwijającą się branżę przemysłu turystycznego, którego audycje i płatne reklamy byłyby mile widziane w programach. Taka stacja, jako instytucja wyższej użyteczności publicznej, powinna być częściowo sponsorowana przez KBN i MEN. Powołanie osobnego kanału popularyzującego naukę wynika po części także z niecelowości forsowania programów naukowych w głównych programach ogólnopolskich. Należy raczej pójść drogą specjalizacji i nie zmuszać entuzjastów seriali brazylijskich i bebechowatych horrorów do oglądania dyskusji o wprowadzaniu upraw transgenicznych, i oczywiście vice versa. Podobnie jest na rynku czasopism: kto inny czyta "Wiedzę i Życie", a kto inny "Detektywa" lub "Twój Styl". Nie inaczej w eterze: za granicą istnieją i doskonale prosperują takie stacje, jak "Discovery" lun "Planete". Czy naprawdę nas na to nie stać? W odróżnieniu od obecnie działających głównych kanałów publicznej telewizji, które dla autorów i instytucji związanych z nauką są w zasadzie hermetycznie zamknięte, duże i wciąż nie w pełni wykorzystane możliwości popularyzowania nauki oferują rozgłośnie radiowe. Także i tutaj, podobnie jak w przypadku czasopism popularnych, najczęściej brak wystarczająco drożnego kanału informacyjnego między światem nauki a studiem radiowym. Newralgicznym punktem są, jak zwykle, finanse: radio nie posiada środków na honoraria. Odmiennym, choć nie mniej ważnym sposobem upowszechniania wiedzy mogą być kursy, prowadzone np. w ramach nowo utworzonego Uniwersytetu Powszechnego. Idea nienowa, natomiast coraz bardziej aktualna w dzisiejszych czasach rozwoju cywilizacyjnego, najszybszego w dziejach ludzkości. Według prezentowanego tutaj projektu można wyobrazić sobie Uniwersytet jako uczelnię dwustopniową. Stopień podstawowy obejmie kursy ogólne, w razie potrzeby połączone z pokazami i wycieczkami w teren lub do odpowiednich instytucji. Mówiąc najogólniej, celem tych kursów będzie pogłębianie i aktualizowanie wiedzy w zakresie nauk ścisłych, humanistycznych i w dziedzinie sztuki, a także objaśnianie zjawisk przyrodniczych i procesów technicznych. Uniwersytet Powszechny może również objąć patronat nad szeregiem kursów doskonalących umiejętności typu artystycznego, rzemieślniczego i "hobbystycznego". Przy tak rozległym polu działania nie wszystkie zajęcia będą związane bezpośrednio z nauką sensu stricte, chociaż z pewnością będzie można je traktować jako sposób na poszerzenie wiedzy ogólnej. Jeśli chodzi o stopień zaawansowany, to uruchomi się w jego ramach kursy bardziej specjalistyczne i na wyższym poziomie, dające uprawnienia, np. przy przekwalifikowywaniu zawodowym. Po zaliczeniu kursanci z obu stopni otrzymają odpowiednie certyfikaty. Wszystkie kursy będą płatne, a czesne zostanie obliczone na możliwie jak najniższym poziomie na podstawie rzeczywistych kosztów prowadzenia kursu, które mogą ulec obniżeniu w przypadku otrzymania dotacji. Uczestnikiem kursów U.P. będzie mógł zostać każdy obywatel, bez względu na wiek i wykształcenie. Zajęcia będą odbywać się w dogodnych porach w wyższych uczelniach, szkołach, instytucjach naukowych i biurach poza godzinami pracy i urzędowania. Wykładowcy będą otrzymywać honoraria. Kolejnym, ważnym sposobem upowszechniania nauki i jej aplikacji są tzw. "dni otwartych drzwi" w różnych instytucjach badawczych i zakładach przemysłowych. Np. we francuskich elektrowniach atomowych w określonym dniu w tygodniu każdy może przyjść, aby zapoznać się z zakładem - wyznaczeni pracownicy oprowadzają chętnych i udzielają wyjaśnień na temat rozwiązań technicznych. Na marginesie: we Francji ok. 80% energii uzyskuje się w zakładach nuklearnych, a społeczna akceptacja rozbudowy przemysłu jądrowego osiągnięta została głównie na drodze szeroko zakrojonego programu informacyjno-edukacyjnego. U nas organizuje się, głównie dla szkół, grupowe zwiedzanie placówek badawczych, ale są to akcje jednorazowe i raczej odosobnione, natomiast do zakładów przemysłowych osoby postronne zwykle nie są wpuszczane. Przypuszczam, że można udostępnić w odpowiednim zakresie do zwiedzania zarówno instytuty naukowe, jak i obiekty przemysłowe, i że jest to tylko kwestia odpowiednich decyzji i dobrej organizacji. O Warszawskim Festiwalu Nauki, który odbył się po raz pierwszy w 1997 roku, pisałem w innym miejscu (Nauka, 1/98, 189). Ta ze wszech miar godna poparcia inicjatywa zaangażowała podczas jednego wrześniowego weekendu 1997 r. ok. tysiąca pracowników nauki i udostępniła ok. 40 placówek dla uczestników, których naliczono 20 tysięcy. Uczestnictwo ludzi nauki w Festiwalu, w pełni dobrowolne i często pełne entuzjazmu, może prowadzić do wyłonienia kadry przyszłego Uniwersytetu Powszechnego, jak również całej plejady doskonałych popularyzatorów nauki. Z drugiej strony, instytucje partycypujące w Festiwalu mogłyby prowadzić "dni otwartych drzwi" nie tylko w czasie trwania tego zasłużonego przedsięwzięcia. Warto więc pomyśleć o książkowym wydaniu festiwalowego katalogu ze streszczeniami imprez oraz nazwiskami i adresami organizatorów, adresowanego zarówno do zainteresowanych problemami nauki obywateli, jak i do redakcji upowszechniających naukę, zarówno tych poszukujących tematów, jak i popularyzatorów. Inną interesującą formą upowszechniania nauki jest tzw. turystyka naukowa. U nas raczej nieznana, za granicą powoli zdobywa sobie coraz więcej zwolenników. Imprezy polegają na wakacyjnych wyjazdach, zwłaszcza młodzieży, do miejscowości znanych z rozbudowanej bazy badawczej i badawczo-przemysłowej, gdzie poziom prowadzonych prac jest wysoki, a w laboratoriach spotkać można wybitne indywidualności ze świata nauki. Pobyt nie ogranicza się wyłącznie do zwiedzania tych placówek, ale urozmaicony jest wycieczkami do pobliskich zakładów przemysłowych, przyrodniczych parków narodowych i unikatowych dzieł architektonicznych. Sądzę, że nasze biura podróży mogą zainteresować się włączeniem takich imprez do swojej oferty, i to imprez zarówno krajowych, jak i zagranicznych, pod warunkiem odpowiedniego wsparcia merytorycznego i organizacyjnego ze strony świata nauki. Byłoby dobrze, gdyby na częściowe dofinansowanie takich wyjazdów, a także podobnych imprez, np. wakacyjnych stażów naukowych, dało się uruchomić jednorazowe dotacje dla najzdolniejszych uczniów i studentów (np. granty przyznawane na indywidualne wnioski z KBN, które można nazwać Junior). Na koniec chciałbym krótko wspomnieć o zagadnieniach, dotyczących krajowej kadry autorów publikacji popularyzujących naukę, a także o merytorycznej ocenie tekstów. Mamy wielu doskonałych popularyzatorów, których podzielę na aktywnych i potencjalnych. Ci potencjalni pozostają nieaktywni z różnych powodów, a jedną z przyczyn takiego stanu rzeczy, jak pisałem wyżej, jest brak wydajnego kanału informacyjnego między autorami a mediami. Niektórzy naukowcy, którzy nie chcą inwestować czasu w pisanie artykułu dla nieznanego i niepewnego wydawcy, a potem ubiegać się o opublikowanie pracy, powinni wyraźnie odczuwać zapotrzebowanie, zarówno społeczne, jak i instytucjonalne, i pisać na konkretne zlecenie. Stworzenie odpowiedniego klimatu i warunków organizacyjnych, a także podniesienie prestiżu tego rodzaju pracy i jej wymiernych efektów, nie tylko finansowych, ale także np. poprzez zwiększenie uznawanego i punktowanego dorobku naukowego, z pewnością zaowocuje uaktywnieniem wielu autorów, rekrutujących się spośród kadry naukowej i naukowo-dydaktycznej. Co do poziomu artykułów, popularyzujących wiedzę, to publikowane prace są naturalnie bardzo różne i trudno generalizować, bo istnieją zarówno kiksy, jak i perły; często wielu świetnym merytorycznie tekstom potrzebne są daleko idące poprawki redakcyjne, aby przesłanie było wystarczająco czytelne, a lektura łatwa i przyjemna. Od czegóż są jednak redaktorzy? Inna sprawa niepokoi mnie bardziej, a dotyczy ona "hitów" naukowych, jednodniowych sensacji, na dodatek często tak dalece spłyconych, że nie mających wiele wspólnego ze stanem faktycznym. Autorami takich "przebojów" są najczęściej nie naukowcy, lecz tzw. dziennikarze naukowi, czyli zazwyczaj pracownicy redakcji, akurat oddelegowani do działu czasopisma, zajmującego się nauką. Niedobrze jednak się dzieje, gdy redakcje narzucają podobny styl autorom współpracującym, rekrutującym się spośród ludzi nauki lub wytrawnych popularyzatorów. Cóż bowiem innego wniesie kilkuzdaniowa rewelacja ponad syndrom "rozdziawionych ust", a czytelnik najwyżej pokiwa głową i skwituje: "co też to się dzisiaj wyrabia". Przecież nie chodzi o to, aby obywatel kojarzył naukowca z Frankensteinem i obarczał go całą odpowiedzialnością za zło, które jakoby powstawało za jego przyczyną. Przeciwnie, idzie nam o to, aby naukę nie tylko oswoić, ale i przyswoić, choćby cząstkowo i po trochu. W tym kontekście najwyżej cenić trzeba artykuły kompleksowe, naświetlające problemy z różnych stron i przedstawiające tło, sytuujące poruszane zagadnienie w szerszym krajobrazie naukowym i cywilizacyjnym. Nie da się tego wszystkiego dokonać w krótkim doniesieniu, ale warto chociaż skrótowo umiejscowić problem w świecie nauki, a także zdefiniować trudniejsze terminy i pojęcia. Jeśli artykuł, obojętnie - krótki czy długi, pozwoli Kowalskiemu trochę lepiej zrozumieć świat, a także po lekturze pozostanie mu w pamięci pożyteczna informacja, nawet jedna i skromna, to cel publikacji takiego tekstu zostanie spełniony. W powyższym krótkim omówieniu starałem się zasygnalizować niektóre problemy, związane z upowszechnianiem nauki w naszym kraju i z organizacją tego niezwykle ważnego przedsięwzięcia. Do tych i innych zagadnień należy powracać jeszcze nie raz, aby kontynuować "organiczną" pracę u podstaw, od której, w odpowiednio rozległej perspektywie, zależeć będzie rodzaj naszego narodowego bytu, pozycja kraju w światowym rankingu, a także, w całkowicie uchwytnym stopniu, jakość i poziom życia naszych obywateli.
|
Festiwale Nauki |
|
O Festiwalach Nauki w Warszawie
Zasadniczym celem organizowania Festiwali jest szeroka popularyzacja nauki w społeczeństwie. Obejmuje ona upowszechnianie wiedzy, popularne ukazanie współczesnej metodologii badań, a także przedstawienie najnowszych osiągnięć i trendów nauki w ogólnocywilizacyjnym kontekście. Cele te realizowane są przez spotkania z naukowcami w dyskusjach panelowych, a także przez pokazy uczestniczące, zwiedzanie, inscenizacje i lekcje. Tematyka imprez jest niezwykle szeroka, od zagadnień fizycznych, matematycznych, poprzez biologię i medycynę, a na historii i językoznawstwie skończywszy. Aby pokazać skalę przedsięwzięcia, wymienię tylko kilka tematów festiwalowych: "Czy nauka czyni świat lepszym?", "Substancje lecznicze z organizmów transgenicznych", "Dietoterapia otyłości", "Wszechświaty równoległe", "Grzybki w barszczu, w grzybkach cez, czyli gastronomia jądrowa", "Polskie dinozaury", "Między religią a ideologią", "Badanie i konserwacja zabytków sztuki". Teraz odrobina historii. Zaczęło się w roku 1997, a inicjatorami przedsięwzięcia były następujące instytucje: Uniwersytet Warszawski, Politechnika Warszawska i Polska Akademia Nauk, a wzorowano się na wielkiej, urządzanej rokrocznie imprezie w Edynburgu. U nas w liczbach wygląda to tak, że w pierwszym Festiwalu (rok 1997) wzięło udział ok. 20 tysięcy osób przy zaangażowaniu ponad 40 placówek naukowych. W II Festiwalu w Warszawie w 1998 roku uczestników było już 40 tysięcy, a odbył się przy udziale 70 placówek. W roku 1999 odpowiednie liczby wynosiły 50 tysięcy uczestników i 90 placówek. W kolejnych latach liczba uczestników ustabilizowała się na ok. 50 tysiącach, a liczba placówek na ponad 100. Organizowano w sumie ponad 500 imprez. Takie zainteresowanie świadczy o dużym zapotrzebowaniu na upowszechnianie informacji naukowej. Jest to pocieszające, ponieważ trudno sobie wyobrazić sprawne funkcjonowanie społeczeństwa w systemie rozwiniętej cywilizacji początku 3. tysiąclecia, którego znaczący procent obywateli nie potrafi prawidłowo wypełnić formularza podatkowego i nie rozumie instrukcji obsługi żelazka. Ponadto miejsce naszego narodu w zglobalizowanym świecie będzie coraz silniej wyznaczane przez poziom wykształcenia społeczeństwa. Ogólne założenie dla Festiwalu było następujące: ponieważ telewizja, internet, filmy, sesje plakatowe w szkołach i tradycyjnie zorganizowanych muzeach promują raczej pokazy dla biernych obserwatorów, należało zastosować odmienną strategię, niemożliwą do naśladowania przez mass-media. Organizatorzy postanowili więc włączyć uczestników do eksperymentu i stąd duży nacisk na tzw. pokazy uczestniczące. Kto przychodzi na spotkania festiwalowe? Głównie młodzież, często ci, którzy są zainteresowani wyższymi studiami. Młodych ludzi w wieku licealnym na imprezach które koordynuję jest ok. 70%. Reszta to uczestnicy w różnym wieku i o najrozmaitszych profesjach; trafiają się naukowcy, lekarze i dziennikarze. Przychodzą ludzie w sile wieku, często z dorosłymi lub dorastającymi dziećmi, lecz również emeryci, którzy chcą dowiedzieć się czegoś np. o swojej wątrobie. Taki wiekowy i zawodowy rozrzut nas, organizatorów, bardzo cieszy, bo przecież impreza w założeniach przeznaczona jest dla statystycznego Jana Kowalskiego. Jako festiwalowy koordynator imprez, prowadzonych na Wydziale Farmaceutycznym Akademii Medycznej w Warszawie, zapraszam na naszą stronę Festiwalu (wejście z głównej strony Wydziału "http://www.farm.amwaw.edu.pl/~axzimni/festiwal/face.html"), a także na ogólną oficjalną stronę Festiwalu "http://www.festiwalnauki.edu.pl/"). Ponadto od 2000 roku organizuję i prowadzę panele dyskusyjne pod nazwą Colloquium Fantasticum w Stowarzyszeniu Pisarzy Polskich (patrz niżej, oraz Referaty).
|
|
Moja festiwalowa historia
Zaczęło się w 1996 roku, kiedy przygotowywałem się do współpracy z Centrum Upowszechniania Nauki PAN - otrzymałem propozycję zajęcia się tematem Festiwalu, którego idea właśnie wtedy zaczynała się ucieleśniać. Zostałem zaproszony na niezwykle wykwintnie zorganizowane spotkanie informacyjne, które odbywało się w Interdyscyplinarnym Centrum Modelowania UW. Zagajali prof. Magdalena Fikus i doc. Maciej Geller, którzy kierują Festiwalem do dziś, a podczas części nieoficjalnej grało zaproszone trio i serwowano kanapki z łososiem. Następne spotkanie odbywało się już bez części nieoficjalnej i podawano herbatę, a potem przenieśliśmy się do Instytutu Biochemii i Biofizyki, gdzie można było skorzystać z gazowanej wody. Kolejne spotkania były już czysto robocze - same papierki, instrukcje i dyskusje. Za to Festiwal rósł w siłę, z roku na rok coraz więcej instytucji organizowało imprezy, a festiwalowi goście napływali ochoczo. Moja rola miała polegać na koordynowaniu prac dotyczących Festiwalu w ramach CUN PAN. Rzeczywiście, byłem łącznikiem między kierownictwem Festiwalu a prof. Bogdanem Neyem przy organizowaniu dwóch imprez w CUN: "Nauka - sukcesy i porażki" (rok 1998) oraz "Kariera w nauce" (rok 1999). Jednak zapoznanie się z festiwalową tematyką zainspirowało mnie do działań na terenie macierzystego Wydziału Farmaceutycznego AM. Od razu na początku 1997 roku zaproponowałem ówczesnemu dziekanowi, prof. Józefowi Sawickiemu, włącznie Wydziału do prac festiwalowych. Uzyskałem aprobatę i czynne poparcie, w związku z czym mój Wydział uczestniczył w organizowaniu imprez od początku istnienia Festiwalu Nauki, czyli od 1997 r. Myślę, że zasłużyłem na miano aktywnego współorganizatora naszych imprez. Najpierw przejrzałem spis Zakładów, zapoznałem się z ich profilami badawczymi i dydaktycznymi, a potem obmyśliłem ogólną koncepcję pokazów laboratoryjnych, które mogłyby zostać zorganizowane. Następnie, po naradzie z dziekanem i jego wstępnej akceptacji, odwiedzałem kolejno kierowników wytypowanych Zakładów, pozyskując ich dla idei (tak, to była - i jest - właściwie czysta idea, bo fundusze Festiwalu okazały się więcej niż skromne). Z jednymi poszło mi łatwo, byli tacy, którzy wręcz podchwycili pomysł, innych musiałem przekonywać, wreszcie niektórzy odmówili - cóż, trudno się dziwić, prace społeczne są dziś niemodne. Wszakże udział Wydziału w tak dużym przedsięwzięciu, szeroko reklamowanym we wszystkich mediach, dał możliwość zaprezentowania placówki, a więc w pewnym stopniu zaprocentował. A więc, w roku 1997 było 5 imprez laboratoryjnych i wykład wprowadzający, w 1998 - ilościowo tak samo, choć prezentowaliśmy nieco zmienioną tematykę zarówno wykładu, jak i imprez, a w 1999 - wykład, 8 imprez laboratoryjnych i dodatkowo 4 dyskusyjne spotkania panelowe. W następnych latach osiągnęliśmy względną stabilizację, jak cały Festiwal. Oto przykładowe tematy: Dlaczego leki działają, Osteoporoza, Apteka od kuchni, Wątroba w kieliszku, Jak bakterie zwalczają antybiotyki, Hodowla tkanek roślin leczniczych. W ciągu 10 lat mieliśmy ok. 4000 gości, a z naszej strony zaangażowanych było ok. 30 pracowników naukowych, zwykle wielokrotnie, a niektórzy od samego początku. Zachęcony powodzeniem naszych farmaceutycznych festiwalowych imprez postanowiłem dokooptować do Festiwalu literaturę fantastycznonaukową, której piszącym przedstawicielem wszak jestem. Zadanie miałem ułatwione jako przedstawiciel zarówno nauki, jak i literatury. Pierwszym spotkanie dyskusyjno-panelowe "Colloquium Fantasticum" miało temat "Czy literatura fantastyczna inspiruje naukowców?" W spotkaniu udział wzięło 7 naukowców, interesujących się fantastyką, a 2 naukowców-pisarzy przysłało pisemne wypowiedzi, które odczytałem podczas spotkania. Impreza w kolejnych latach była z dobrym skutkiem kontynuowana.
Podsumowując - praca przy imprezach festiwalowych
jest pożyteczna, bo nasze społeczeństwo bardzo edukacji potrzebuje. Można
powiedzieć, że jest to praca "u podstaw". Poza tym daje ona okazję do spotkania
interesujących i mądrych ludzi, od których można się sporo nauczyć. A na
to zawsze czas jest odpowiedni. |
Dafnia (rozwielitka)
Microtox-test na bakteriach luminescencyjnych
Test pokarmowy na skorupiakach
Testy na glonach-zielenicach.jpg
Zdjęcia: Grzegorz Nałęcz-Jawecki |
Andrzej Zimniak[1] JUBILEUSZOWY X FESTIWAL NAUKI 2006 NA WYDZIALE FARMACEUTYCZNYM AM W WARSZAWIE
To był jubileuszowy, X Festiwal Nauki w Warszawie, który odbył się w dniach 15-24 września 2006 r. Są powody do radości, bo impreza nie tylko przetrwała całą dekadę, lecz jeszcze rozwinęła się, okrzepła i nabrała znaczenia - można powiedzieć, że na stałe zagościła w krajobrazie kulturowym stolicy. Festiwale Nauki w Warszawie to przedsięwzięcia o ogromnym zasięgu. Rokrocznie uczestniczy w nich ponad 100 instytucji, a liczba gości przekracza 50 000. Festiwal stanowi wydarzenie medialne, jest anonsowany i komentowany przez prasę codzienną, telewizję i radio. Organizatorzy imprez udzielają wywiadów i są autorami licznych audycji popularyzujących wiedzę. A tej wiedzy nigdy w społeczeństwie nie dosyć, zwłaszcza w naszym nadwiślańskim kraju. Uczestniczymy aktywnie w procesie europejskiej integracji oraz światowej globalizacji, ale jakie miejsce zajmiemy w nowym międzynarodowym porządku będzie zależało głównie od wykształcenia obywateli, zarówno tych, którzy pozostaną w kraju, jak i tych, którzy wybiorą miejsce pracy poza jego granicami. Znana to prawda, że siła ekonomiczna kraju ma źródło w wykształceniu jego mieszkańców. Festiwale Nauki dokładają swoją cegiełkę do budowli, jaką jest społeczna edukacja. Gośćmi imprez są głównie młodzi ludzie, i na ich wybory i postawy życiowe można wpływać przez pobudzenie wyobraźni, przez ukazanie możliwości wyboru kierunków badawczych, a także przez zaszczepienie pasji poznawania świata. To właśnie robimy my, organizatorzy i architekci festiwalowych pokazów i dyskusji, i mamy niemałą satysfakcję, widząc entuzjazm u młodych uczestników. Uczestników, którzy nieraz przybywają z odległych miast, aby wziąć udział w wybranych imprezach. Tak, warto do nas przyjechać, bo tego nie da się zobaczyć w telewizji czy internecie. Zasadniczą przewagą spotkań festiwalowych nad audycjami medialnymi jest współuczestnictwo "na żywo", bezpośredni kontakt z prowadzącymi i możliwość własnoręcznego przeprowadzenia eksperymentów w laboratorium. Właśnie w taki sposób staramy się prowadzić imprezy na naszym wydziale.
***
Program imprez na Wydziale Farmaceutycznym w 2006 roku wyglądał następująco:
Spotkania klubowe farmaceutów - wykłady i dyskusje panelowe • Nowoczesne studia farmaceutyczne (wykład wprowadzający) Prof. dr hab. Józef Sawicki[2] • Jak hormony i antybiotyki zanieczyszczają środowisko Dr Grzegorz Nałęcz-Jawecki[2] • Grypa - ptasi czy ludzki problem? Dr Bohdan J. Starościak[3] • Alergia wczoraj i dziś Dr Sławomir Białek[4] Spotkania weekendowe - pokazy w laboratoriach(z aktywnym udziałem zwiedzających) • Pomiar zmiatania wolnych rodników przez wina, nalewki i herbaty (Dr Agnieszka Zielińska, dr Katarzyna Zawada)[5] • Farmacja w świecie wirtualnym (Prof. ndzw. dr hab. Dorota Maciejewska, mgr Teresa Żołek)[6] • Biotechnologia roślin leczniczych (Dr Hanna Olędzka, mgr Anita Śliwińska)[7] • Przygotowanie kremu-żelu dla młodzieży (Mgr Anna Żebrowska-Szulc, dr Barbara Chałasińska)[8] • Ocena toksyczności środowiska przy użyciu organizmów wodnych Dr Grzegorz Nałęcz-Jawecki[2]
***
Wykłady i dyskusje panelowe • Wprowadzeniem do naszych imprez był wykład inauguracyjny prof. Józefa Sawickiego, dziekana Wydziału Farmaceutycznego. Omówione zostały zarówno zagadnienia dotyczące farmacji i jej roli we współczesnym społeczeństwie, jak i tok studiów i profil naszego wydziału. Absolwenci studiów farmaceutycznych przygotowywani są w szerokim zakresie nie tylko do współpracy z lekarzami w dziedzinie farmakoterapii i fitoterapii, ale także do pracy badawczej nad opracowywaniem nowych generacji farmaceutyków, nad uzyskiwaniem leków ze źródeł naturalnych, technologią środków leczniczych i postaci leku oraz profilaktyką polegającą na korekcie modelu zachowań i odżywiania. Praca w aptece także nie ogranicza się do dystrybucji leków przepisanych przez lekarza, ponieważ stale rośnie liczba specyfików, wydawanych bez recepty. Obserwuje się wzrost społecznego zapotrzebowania na sprzedawane "od ręki" preparaty, do których zalicza się nie tylko niektóre leki, ale także odżywki, suplementy i wyciągi ziołowe. Często ludzie cierpiący na alergię, przemęczenie, stres, nadwagę czy nawracające przeziębienia kierują się wprost do apteki, i wtedy specjalistyczna konsultacja odpowiednio przygotowanego farmaceuty jest nie do przecenienia. Nowoczesny program nauczania farmacji uwzględnia te wszystkie wielorakie wyzwania, jakie niesie szybki rozwój cywilizacyjny. W trakcie wykładu została zaprezentowana specyfika tego kierunku studiów i możliwości specjalizacji, a także kierunki prac badawczych, prowadzonych na Wydziale Farmaceutycznym Akademii Medycznej w Warszawie. • Dr Grzegorz Nałęcz-Jawecki poruszył w swoim wystąpieniu nowy problem ekologiczny, występujący zwłaszcza w krajach wysokorozwiniętych. Chodzi o zanieczyszczenie środowiska lekami, których stężenie w ściekach jest coraz wyższe. Dotyczy to samych leków, stosowanych w medycynie i weterynarii i wydalanych w niezmienionej postaci, jak również ich aktywnych metabolitów. Niemało przeterminowanych leków trafia także na wysypiska, skąd mogą dostawać się do gleby i wód gruntowych, a z nich do wody pitnej. Spożycie środków sprzedawanych bez recepty (OTC) wynosi w naszym kraju kilka tysięcy ton w przeliczeniu na substancje czynne. Współczesne leki charakteryzują się wysoką aktywnością biologiczną i najczęściej dobrą rozpuszczalnością w wodzie. Dodatkowo, w niewielkim stopniu są usuwane w procesach biologicznego oczyszczania ścieków i są trwałe w środowisku wodnym. Badania skutków obecności farmaceutyków w środowisku przyrodniczym rozpoczęły się dopiero w ostatniej dekadzie XX wieku. Na podstawie dotychczasowych prac można powiedzieć, iż leki w stężeniach obserwowanych w środowisku nie wykazują toksyczności ostrej, jednakże pojawiają się doniesienia o występowaniu efektów chronicznych. Jedną z grup "wysokiego ryzyka" są antybiotyki - ich obecność jest notowana w ściekach, wodach powierzchniowych, a nawet źródłach wody pitnej. Mikroorganizmy poddawane długotrwałej ekspozycji na niskie stężenia tych substancji nie giną, lecz ewoluują w kierunku szczepów coraz bardziej opornych. Drugą ważną grupą substancji zanieczyszczających środowisko są estrogeny. Zaobserwowano, że nie tylko kręgowce, ale i bezkręgowce posiadają receptory wrażliwe na "ludzkie" leki hormonalne. Nawet niewielkie poziomy stężeń w wodzie (rzędu ng/l) mogą spowodować zmiany wrażliwych ekosystemów. • W kolejnym wykładzie dr Bohdan J. Starościak omówił zagrożenia wynikające z przenoszenia się zmutowanych wirusów z ptaków na ludzi. Od pewnego czasu docierają do nas niepokojące wieści o nowych ogniskach ptasiej grypy, o środkach ostrożności, podejmowanych na dużą skalę, a także - i to wzbudza najwięcej obaw - o ofiarach śmiertelnych tej choroby wśród ludzi. Należy więc odpowiedzieć na pytanie, czy musimy obawiać się epidemii, a jeśli tak, jakie środki ostrożności przedsięwziąć w skali indywidualnej. Nowe szczepy wirusów wywołujących grypę powstają najczęściej na mokradłach w środkowych Chinach w dzikim ptactwie, stamtąd rozprzestrzeniają się najpierw na świnie, potem na ludzi. Podobnie jest obecnie z wirusem H5N1, lecz na razie ów wirus tylko z rzadka przenosi się z ptaków na inne zwierzęta i na ludzi. Dotychczas zanotowano zaledwie ok. 200 przypadków, lecz śmiertelność jest niezwykle wysoka - wynosi ok. 50%. Zarażenie może nastąpić w wyniku bezpośredniego kontaktu z wydzielinami lub tkankami chorych lub niedawno padłych ptaków. Jak się chronić? Wirus ginie w temperaturze 70oC, więc gotowanie lub pieczenie eliminuje niebezpieczeństwo. Po dotknięciu surowego drobiowego mięsa lub jaj trzeba umyć ręce detergentem. Zakupów nabiału należy dokonywać w sklepach, otrzymujących towar od sprawdzonych dostawców. Dostępne szczepienia chronią w niewielkim stopniu, ponieważ wciąż nie znamy zarazka, który w przyszłości może wywołać infekcję na większą skalę. Epidemiolodzy ostrzegają, że istnieje zagrożenie wybuchem epidemii nowej, zjadliwej grypy, który może mieć miejsce za kilka miesięcy, ale także za kilka lat. Jednakże w chwili obecnej nie ma się czego obawiać, bo niebezpieczeństwo zarażenia się ptasią grypą jest, statystycznie biorąc, marginalne. Dziś o wiele więcej kłopotów nastręcza "zwykła" grypa i następujące po niej powikłania. • Dr Sławomir Białek w trakcie swojego wykładu (powtórzonego trzykrotnie) omówił zjawisko alergii - występujące dawniej i dziś. Najstarszym zapisem reakcji alergicznej jest opis śmierci faraona Menesa (XVII w. p.n.e.) - zmarł on nagle po użądleniu przez szerszenia. W talmudzie babilońskim znajduje się przepis na odpowiednie preparowanie białka jaj kurzych w przypadkach nadwrażliwości, a Hipokrates niezwykle dokładnie opisał duszność napadową, jak również pierwszy używał terminu "asthma" w odniesieniu do zaburzeń oddychania. Galen, nazywany ojcem farmacji, w II w.n.e. opisał objawy nadwrażliwości na zapach róż i na spożycie mleka. Jednak znaczący rozwój alergologii nastąpił dopiero w drugiej połowie XIX w. W 1839 r. F. Magendie opisał niewytłumaczalne w owym czasie zjawisko, a mianowicie wystąpienie gwałtownych objawów chorobowych po powtórnym wstrzyknięciu królikom tak nieszkodliwej substancji jak białko jaja kurzego. W 1873 r. Ch. Blackley związał przyczynowo gorączkę sienną z nadwrażliwością na pyłki roślin, a w r. 1906 C. von Pirquet wprowadził termin "alergia" w odniesieniu do sposobu reagowania odbiegającego od normy. Olbrzymi postęp w poznaniu mechanizmów reakcji alergicznych dokonał się po ustaleniu struktury chemicznej immunoglobulin. W 1968 roku dokonano klasyfikacji reakcji alergicznych, którą posługuje się dziś każdy badacz i klinicysta. Dzisiaj alergia, uczulenie lub nadwrażliwość, często klasyfikowana jako atopia, stanowi jeden z najbardziej powszechnych problemów zdrowotnych. Jest wywołana kontaktem pacjenta z substancjami zwanymi alergenami, które występują w otaczającym nas środowisku. Istnieje kilka typów alergii, różniących się mechanizmami odpowiedzi immunologicznej, a więc także szybkością pojawiania się objawów chorobowych. Objawy często występują po kontakcie z substancją, która dotychczas nie wywoływała zmian chorobowych. Pierwszy kontakt z alergenem powoduje powstanie reakcji pierwotnej, dzięki której organizm zasadniczo bezobjawowo "zapamiętuje" daną substancję na okres kilku dni lub nawet kilku lat. Po ponownym kontakcie z alergenem pojawia się właściwa reakcja uczuleniowa, wywołująca pełne objawy kliniczne choroby, którą nazywamy reakcją wtórną. Atopia jest dziedziczną odmianą alergii, a w przypadku jej występowania u jednego z rodziców prawdopodobieństwo zachorowania potomstwa wynosi 30%. Natomiast gdy obydwoje rodzice są alergikami, prawdopodobieństwo ujawnienia się atopii u dzieci wzrasta do 70%. Najwięcej zachorowań na alergię obserwuje się w krajach wysokorozwiniętych, w dużych aglomeracjach miejskich. W ostatnich latach nastąpił znaczny wzrost liczby przypadków schorzeń górnych dróg oddechowych (pyłkowica, całoroczny alergiczny nieżyt nosa), alergii pokarmowych i atopowej astmy oskrzelowej. W Polsce na alergię choruje około 30% populacji. Światowa Organizacja Zdrowia (WHO) zaliczyła choroby alergiczne do grupy chorób cywilizacyjnych, a na liście stwarzanych zagrożeń zostały one zaklasyfikowane na czwartej pozycji po nowotworach, chorobach układu krążenia i AIDS. Do głównych przyczyn gwałtownego wzrostu zachorowań na alergię należy zaliczyć powszechność szczepień ochronnych, terapie przy użyciu antybiotyków, podawanie witaminy D3, częste infekcje wirusowe, zmiany diety, zatrucie środowiska oraz tzw. "sterylność życia codziennego", która m. in. polega na dostępności uzdatnianej bieżącej wody w wodociągach, zastosowaniu kanalizacji i częstym używaniu środków higieny osobistej.
***
Pokazy w laboratoriach Pokazy odbywały się przy aktywnym uczestnictwie gości w grupach ok. dziesięcioosobowych i były powtarzane trzykrotnie. • Dr Agnieszka Zielińska i dr Katarzyna Zawada zademonstrowały pomiary zmiatania wolnych rodników przez wina, nalewki i herbaty. Jeszcze kilkadziesiąt lat temu tlen był uważany wyłącznie za pierwiastek niezbędny do życia. Nikt nie przypuszczał, że w stężeniu większym niż występuje w warunkach naturalnych niektóre jego formy mogą być czynnikiem niszczącym życie. Odkrycie toksyczności tlenu było związane ze stwierdzeniem obecności wolnych rodników tlenowych w zdrowych organizmach. Powodują one uszkodzenia komórek i są szczególnie niebezpieczne dla jądra komórkowego i mitochondriów. Jest wiele prac dowodzących, że rak, arterioskleroza, choroba Alzheimera czy Parkinsona mogą być związane z malejącą odpornością na działanie rodników w komórkach. Antyoksydanty (przeciwutleniacze) eliminują wolne rodniki. Bardzo ważne jest więc stosowanie diety bogatej w antyutleniacze takie jak witamina C i E, karoteny, a również związki typu polifenoli. Związki polifenolowe takie jak: flawonoidy, antocyjany, czy taniny wykazują właściwości antyutleniające, neutralizując powstające w tkankach wolne rodniki. Surowce aktywne zawierające polifenole są często głównym składnikiem wielu mieszanek ziołowych, herbat oraz preparatów leczniczych naturalnego pochodzenia, które mogą być stosowane jako dodatki do żywności. Okazuje się, że soki i wina owocowe również wykazują właściwości przeciwutleniające. W trakcie pokazu przyprowadzono pomiary właściwości przeciwutleniających herbat win i nalewek wykorzystując technikę elektronowego rezonansu paramagnetycznego (EPR). Wykrywano i ilościowo oznaczano związki, zawierające niesparowany elektron, czyli wolne rodniki. Substancje antyoksydacyjne powodują zanikanie sygnałów rodników w czasie, tym szybciej, im większa jest ich aktywność. Badano również potencjał antyoksydacyjny niewielkiej liczby próbek własnych win, nalewek owocowych i naparów z herbat, uprzednio zaparzonych i wystudzonych. • Prof. Dorota Maciejewska i mgr Teresa Żołek w trakcie swojego pokazu uchyliły drzwi do wirtualnego świata, w którym leki projektuje się na monitorach za pomocą specjalnych programów komputerowych. Cechą współczesnej nauki jest zanik wyraźnych granic między poszczególnymi dyscyplinami naukowymi. Szczególnie ważną, integrującą rolę w naukach biologicznych odgrywają teorie fizyki opisujące oddziaływania w świecie molekuł. Pakiety obliczeniowe i wizualizacyjne, umożliwiające analizowanie struktur ważnych biologicznie związków i obrazowanie przebiegu procesów chemicznych, stanowią nowe narzędzia, coraz częściej wykorzystywane w naukach farmaceutycznych. Różne dziedziny nauki związane z badaniem molekuł (spektroskopia molekularna, analiza rentgenograficzna) wykorzystują komputery zarówno do sterowania pomiarem, zbierania i obróbki danych, jaki i prezentowania wyników w sposób łatwy do interpretacji. Podczas spotkania przedstawiono różne metody i programy wykorzystywane w projektowaniu substancji o zadanych właściwościach oraz analizie właściwości molekuł, w tym także ich przestrzennej budowy. Uczestnicy spotkania mieli możliwość samodzielnego testowania tych programów oraz przewidywania aktywności biologicznej zaprojektowanych przez siebie związków chemicznych. • Kolejny pokaz, przeprowadzony przez dr Hannę Olędzką i mgr Anitę Śliwińską, dotyczył biotechnologii roślin leczniczych. Naturalnym środowiskiem bytowania roślin, z którym stykamy się najczęściej, jest gleba. Obecnie istnieje jeszcze inna możliwość hodowli roślin - w warunkach sterylnych, przy zastosowaniu pożywki agarowej zamiast ziemi. W takim przypadku mówimy o hodowli in vitro, czyli w szkle. Metoda ta jest m. in. stosowana do szybkiego klonalnego mnożenia roślin, tj. otrzymywania wielu okazów potomnych z tkanki jednej rośliny. Istnieje także możliwość osobnego hodowania wyodrębnionych organów tkanek i komórek roślinnych, np. samych korzeni, zarodków lub komórek. Ponadto, zamiast roślin lub ich organów można również hodować niezróżnicowaną tkankę, nazywaną kalusem, lub prowadzić hodowlę komórek w zawiesinie w tzw. bioreaktorach. W tkankach wyhodowanych in vitro występują na ogół w podobnej ilości takie same związki biologicznie czynne, jak w roślinie macierzystej, co umożliwia otrzymanie ich z pominięciem hodowli całej rośliny. Najlepsze wyniki uzyskuje się z kultury zawiesinowej w bioreaktorach, w których parametry wzrostu są automatycznie rejestrowane i kontrolowane zewnętrznie na monitorze. Według jednej z najnowszych metod związki lecznicze otrzymuje się z korzeni transgenicznych, tzn. mających wprowadzony obcy gen. Do modyfikacji genotypu używa się bakterii o nazwie Agrobacterium rhizogenes. Organizmy modyfikowane genetycznie (GMO - genetically modified organisms) otrzymywane są obecnie z bakterii, grzybów, roślin i zwierząt. Dostarczają one m.in. wielu produktów żywnościowych, obecnych na naszym rynku. Zasady postępowania regulowane są specjalnymi przepisami, według których na opakowaniu powinna być informacja, że artykuł pochodzi z roślin zmienionych genetycznie. Hodowla tkankowa roślin in vitro pozwala także otrzymywać rośliny haploidalne (z pojedynczym zespołem chromosomów), a także dokonywać fuzji protoplastów (nieobłonionych komórek) dwóch gatunków, nie dających mieszańców w stanie naturalnym. Tkanki można zamrażać i przechowywać w temperaturze ciekłego azotu (-196oC), a po powolnym rozmrożeniu kontynuować hodowlę. Można również otoczkować tkanki merystematyczne i przechowywać w stanie niezmienionym w niskiej temperaturze dodatniej w formie tzw. sztucznych nasion. Badania zespołu organizującego pokaz obejmują poszukiwania związków naturalnych o właściwościach cytostatycznych i immunomodulujących, które tworzą się w hodowli in vitro. Obecnie przedmiotem prac są różne gatunki cisa i inne rośliny nierosnące masowo w Polsce. Cis zawiera ok. 350 związków chemicznych, z których wiele jest trujących, natomiast jeden, paklitaksel, wykazuje właściwości przeciwnowotworowe. Związek ten powstaje również w hodowli in vitro. Jego obecność stwierdziliśmy w korzeniach transformowanych w ilości równej jego występowaniu w korze. W trakcie pokazu zademonstrowano hodowle tkankowe w bioreaktorach oraz hodowle roślin transgenicznych. Nie zabrakło również czasu na dyskusję o uzyskiwaniu związków biologicznie czynnych z roślin. • Niesłabnącym powodzeniem cieszą się u nas pokazy z serii "apteka od kuchni", w trakcie których goście nie tylko oglądają, jak przyrządza się leki recepturowe i lecznicze kosmetyki, ale także własnoręcznie, choć pod czujnym okiem prowadzącego, mogą przygotować krem witaminowy lub wyprodukować tabletki. W tym roku dr Barbara Chałasińska i mgr Anna Żebrowska-Szulc nadzorowały przygotowanie żelu do mycia twarzy z mikrogranulkami. Cytrusowy żel zawierał preparaty aktywne biologicznie: wyciąg z owoców Limonki (Fruitliquid Lime PG) oraz witaminę E w postaci unisfer (unispheres). Limonka (Citrus aurantifolia L.), nazywana "cytryną tropików", zawiera szereg substancji o działaniu przeciwbakteryjnym, łagodnie złuszczającym, oczyszczającym, wybielającym i wygładzającym skórę, natomiast witamina E (octan tokoferolu) jest naturalnym przeciwutleniaczem, odżywia skórę i hamuje procesy jej starzenia. W żelu do mycia twarzy ta witamina znajdowała się w unisferach, które są barwnymi, kulistymi mikrokapsułkami o średnicy od 0,5 do 0,9 milimetra i pełnią rolę nośników wielu aktywnych substancji. Stosowane w preparatach kosmetycznych, dodatkowo nadają im barwną pigmentację, w tym przypadku kolor szmaragdowy. • Dr Grzegorz Nałęcz-Jawecki przeprowadził interesujący pokaz dotyczący bioindykacyjnych metod oceny toksyczności środowiska wodnego. Bioindykacja jest metodą wykorzystującą jako wskaźnik organizm żywy, którego reakcja jest podstawą oceny stopnia toksyczności badanego środowiska. Organizmy testowe, zwane bioindykatorami, powinny być szczególnie wrażliwe na związki chemiczne szkodliwe dla środowiska i dla człowieka, a w celu poprawienia tych właściwości są one często modyfikowane genetycznie. Uzyskanie wyniku dodatniego przy ich zastosowaniu stanowi rodzaj alarmu, ostrzegającego przed przypadkowym bądź umyślnym skażeniem, i pozwala na ocenę całkowitej toksyczności próbki. Bioindykację można więc traktować jako wstęp do analizy chemicznej, która pozwala na wykrycie obecności tylko tych związków, których się spodziewamy. Można wyróżnić dwa podstawowe rodzaje metod bioindykacyjnych. Pierwszy, tzw. środowiskowy, ma na celu ocenę stanu środowiska przyrodniczego oraz wpływu substancji chemicznych, zwłaszcza pestycydów, detergentów oraz metali ciężkich, na różne organizmy żywe, drugi dotyczy głównie człowieka. Bioindykatory, specjalnie wyselekcjonowane pod kątem szczególnie wysokiej wrażliwości, wprowadzone zostały w wielu krajach do rutynowych badań wód i służą do zabezpieczenia ujęć wody pitnej przed przypadkowym bądź umyślnym zanieczyszczeniem. W biotestach, służących do badania toksyczności wody lub ścieków, stosuje się bioindykatory zwierzęce, roślinne i bakteryjne. Poniżej przedstawiono pięć przykładowych testów, które zostały zaprezentowane w trakcie pokazów. Test przy użyciu Selenastrum capricornutum. W teście wykorzystywany jest jednokomórkowy glon, należący do gromady zielenic, rozpowszechniony w wodach słodkich. Do hodowli glonów wprowadza się badane próbki wód powierzchniowych, a następnie prowadzi się spektrofotometryczne pomiary absorbancji w zakresie widzialnym. Toksyczne oddziaływanie badanej próbki powoduje zahamowanie przyrostu glonów, co można ilościowo mierzyć w odniesieniu do próbki kontrolnej. Przeciwny efekt testowy, czyli nadmierny wzrost glonów, jest także niekorzystny, bo może świadczyć o obecności substancji biogennych, jak nawozy czy fosforany ze środków piorących. Test przy użyciu Daphna magna. Rozwielitka jest skorupiakiem żyjącym w wodach słodkich. Stanowi dobry bioindykator z uwagi na łatwość hodowli oraz dużą wrażliwość na obecność wielu substancji toksycznych, w szczególności insektycydów, na które reaguje już w stężeniach 0,0001 mg/l. Efektem testowym jest unieruchomienie organizmu. Dafnie są często wykorzystywane w układach przepływowych w stacjach zabezpieczających ujęcia wody pitnej. Test przy użyciu Artemia salina. Artemia, inaczej solowiec, jest skorupiakiem żyjącym w wodach słonych. Charakteryzuje się mniejszą wrażliwością niż dafnia, lecz jego niewątpliwą zaletą jest możliwość uzyskiwania młodych organizmów z jaj przetrwalnych. Aby uzyskać wylęg Artemii należy dzień przed wykonaniem testu umieścić jaja w specjalnej pożywce. Dzięki temu nie jest konieczne prowadzenie kosztownej, ciągłej hodowli bioindykatorów. Test Spirotox. Organizmem testowym jest pierwotniak z grupy orzęsków - Spirostomum ambiguum, występujący w małych, czystych stawach. Orzęski umieszczane są w badanej próbce w płaskich naczyniach i obserwowane pod niewielkim powiększeniem (8 x). Po wpływem toksykantów komórki organizmów ulegają rozpuszczeniu, tzw. lizie. Bioindykator jest szczególnie wrażliwy na metale ciężkie, fungicydy (środki grzybobójcze) i detergenty. Z uwagi na niewielkie rozmiary organizmów reakcja przebiega szybko - oznaczenie trwa kilkanaście do kilkudziesięciu minut. Test Microtox. Test polega na pomiarze naturalnej luminescencji (świecenia) bakterii Vibrio fischeri, które są zawieszone w badanej próbce. Toksyczne związki chemiczne hamują aktywność enzymów bakteryjnych, co manifestuje się obniżeniem intensywności świecenia. Jest to najszybszy test bioindykacyjny – wyniki uzyskujemy już po 5 minutach. Jego wadą jest konieczność zastosowania kosztownej aparatury, tzw. luminometru.
***
W podsumowaniu należy stwierdzić, że w trakcie ostatniej dekady wnieśliśmy do Festiwalu Nauki istotny i oryginalny wkład, a nasze imprezy nie raz nazywane były wzorowymi. Wydział uczestniczy w Festiwalach od samego początku, t. j. od 1997 roku. W ciągu dziesięciu Festiwali wizytowało nas w sumie ponad 4000 gości, niektórzy nawet specjalnie przyjechali z innych miast. Odwiedzający rekrutowali się w ok. 70% spośród młodzieży licealnej ostatnich klas. Z naszej strony panele i pokazy w laboratoriach przeprowadzało ok. 30 pracowników naukowych, większość z nich wielokrotnie, a niektórzy są wierni tej imprezie od samego początku do dziś. Z okazji jubileuszu wymienię te osoby z nazwiska: dr Barbara Chałasińska, dr Hanna Olędzka, dr Grzegorz Nałęcz-Jawecki i dr Andrzej Zimniak (koordynator). Jeśli ktoś chciałby zaznajomić się z historią Festiwalu na Farmacji, zapraszam na specjalną stronę internetową: http://farm.amwaw.edu.pl/~axzimni/face.html. Można też sięgnąć po kolejne roczniki czasopisma "Medycyna Dydaktyka Wychowanie", począwszy od 1998 roku, gdzie zamieszczane były relacje. Tych, którzy chcieliby zapoznać się z programem całego Festiwalu w Warszawie, jak również z opisami pokrewnych festiwali, zapraszam na ogólną oficjalną stronę festiwalową "http://festiwal.icm.edu.pl/ ".
[1] Dr nauk chemicznych, adiunkt, koordynator Festiwali Nauki na Wydziale Farmaceutycznym AM w latach 1997- teraz; Zakład Chemii Fizycznej, Wydział Farmaceutyczny Akademii Medycznej w Warszawie. [2] Zakład Badania Środowiska, Wydział Farmaceutyczny, Akademia Medyczna w Warszawie, ul. Banacha 1, 02-097 Warszawa, tel. 5720 738, kierownik: prof. dr hab. Józef Sawicki. [3] Zakład Mikrobiologii Farmaceutycznej, Wydział Farmaceutyczny, Akademia Medyczna w Warszawie, 02-007 Warszawa, ul. Oczki 3, tel. 628 0822, kierownik: prof. dr hab. Stefan Tyski. [4] Katedra i Zakład Biochemii i Chemii Klinicznej, Akademia Medyczna w Warszawie, ul. Banacha 1, 02-097 Warszawa, tel./faks 5720 737, kierownik: prof. dr hab. Jan Pachecka. [5] Zakład Chemii Fizycznej, Wydział Farmaceutyczny, Akademia Medyczna w Warszawie, ul. Banacha 1, 02-097 Warszawa, tel. 572 0961, kierownik prof. ndzw. dr hab. Iwona Wawer. [6] Katedra i Zakład Chemii Organicznej, Wydział Farmaceutyczny, Akademia Medyczna w Warszawie, ul. Banacha 1, 02-097 Warszawa, tel. 572 0643, kierownik prof. ndzw. dr hab. Dorota Maciejewska. [7] Katedra i Zakład Biologii i Botaniki Farmaceutycznej, Wydział Farmaceutyczny, Akademia Medyczna w Warszawie, ul. Banacha 1, 02-097 Warszawa, tel./faks 572 0984, kierownik prof. ndzw. dr hab. Olga Olszowska. [8] Zakład Farmacji Stosowanej, Wydział Farmaceutyczny, Akademia Medyczna w Warszawie, ul. Banacha 1, 02-097 Warszawa, tel. 022 5720 977, tel./faks 022 5720 978, kierownik: prof. ndzw. dr hab. Edmund Sieradzki.
|
|
Inżynieria genetyczna - u progu nowej ery Andrzej Zimniak (red.) CUN PAN, Warszawa 2000
W okresie styczeń 1997 - sierpień 1999 pracowałem w Polskiej Akademii Nauk, dokładniej w Centrum Upowszechniania Nauki, na stanowisku "redaktora programowego". Robiłem kilka rzeczy: pozyskiwałem tematyczne artykuły naukowe do Biuletynu PAN - Seria Chemiczna, opracowałem i umieściłem w sieci stronę internetową tegoż Biuletynu, pisałem artykuły przeglądowe. Jednak wydaje mi się, że największym osiągnięciem tego okresu było zaplanowanie i wydanie zbioru przeglądowych artykułów popularnonaukowych o modyfikacjach genetycznych. Wówczas temat był bardzo gorący, zresztą do dziś zagadnienia związane z ingerencją w genom wzbudzają zainteresowanie. Dyskusje przycichły, lecz w laboratoriach bez przerwy prowadzone są badania. Era genetyki wciąż jest przed nami. |
||
• stan wiedzy • opinie • punkty widzenia • apele i stanowiska • przez pryzmat literatury i filmu
|
|||
Spis treści
1. Wstęp 2. Andrzej Zimniak "Manipulacje genetyczne - przekleństwo czy nadzieja?" (wprowadzenie) 3. Tomasz Łęski "Naturalne procesy transgenizacji" 4. Jacek Skała "Sekwencjonowanie genomów - od drożdży do człowieka" 5. Tomasz Łęski "Rośliny transgeniczne" 6. Stefan Malepszy "Wprowadzenie roślin transgenicznych do rolnictwa - konsekwencje i problemy" 7. Lech Zwierzchowski "Transgeniczne zwierzęta - dobrodziejstwo czy zagrożenie?" 8. Tomasz Łęski "Klonowanie zwierząt" 9. Marcin Ryszkiewicz "Rewolucja w genetyce a ewolucja człowieka" (rozmowa z A. Zimniakiem) 10. Mariusz Żydowo "Molekularne badania i manipulacje genetyczne: rodowód naukowy, pytania bioetyków i społeczne oczekiwania" 11. Jerzy Nowak "Korzyści i zagrożenia towarzyszące poznaniu ludzkiego genomu" 12. Stanisław Warzeszak "Stwórczość człowieka w dziedzinie gentechnologii - z punktu widzenia teologa" 13. Alicja Przyłuska - Fiszer "Spojrzenie bioetyka na manipulacje genetyczne" 14. Anna Michalska, Tomasz Twardowski "Bioetyka normatywna" 15. Krzysztof Lipka "Strach przed sobowtórem - literackie egzemplifikacje naszych lęków i nadziei" (recenzja literacka) 16. Apel naukowców i innych osobistości, popierający klonowanie: "Deklaracja w obronie klonowania i niezawisłości badań naukowych" (wg. Free Inquiry) 17. Stanowisko Prezydium P.A.N. w sprawie form transgenicznych oraz klonowania i badań nad klonowaniem organizmów
Aneks: Anna Michalska, Tomasz Twardowski "Biotechnologia. Zagadnienia legislacyjne" |
|||
WSTĘP
Dostają Państwo do rąk zbiór popularnonaukowych artykułów przeglądowych o manipulacjach genetycznych i klonowaniu. Zawarto w nim przekrojową, syntetyczną wiedzę na wszystkie ważniejsze tematy, dotyczące szeroko pojętej inżynierii genetycznej. Są więc wypowiedzi naukowców-genetyków, czynnie zajmujących się badaniami i wprowadzaniem ich wyników do praktyki, ale także przedstawiane są problemy bioetyczne, filozoficzne, prawne, dotyczące historii nauki, jak również apele różnych gremiów, np. za oraz przeciw klonowaniu człowieka. Zakładaliśmy różnorodność opinii, i dlatego w tym tomie reprezentowany jest cały wachlarz nieraz przeciwstawnych poglądów, wypowiadają się zarówno zwolennicy niczym nie skrępowanych badań i ich późniejszych szerokich zastosowań, jak i ci, którzy zdecydowanie optują za wyłączeniem wszelkich manipulacji genetycznych ze sfery nie tylko prokreacji człowieka, ale także z rolnictwa i hodowli. Obraz manipulacji genetycznych i ich następstw w literaturze i filmie, komentowany przez krytyka literackiego, jest w pewnym stopniu odzwierciedleniem społecznych lęków i oczekiwań i stanowi naturalne uzupełnienie rozważań naukowców i bioetyków. Autor każdego opracowania odpowiada wyłącznie za swój tekst i jego udział w przedstawianym zbiorze absolutnie nie stanowi o jakkolwiek rozumianej unifikacji poglądów. Potrzeba wszechstronnego naświetlenia zagadnień, będących tematami opracowań, wynika z zamiaru osadzenia ich w szerszym kontekście cywilizacyjnym, a więc nie tylko naukowym, lecz także kulturowym, społecznym, światopoglądowym i filozoficznym. Nadinformacyjność, cechująca współczesną cywilizację, w coraz większym stopniu wymaga dokonywania merytorycznych wyborów, a przedstawianie "najsłuszniejszych" racji zwykle ma krótki żywot. Ukazanie w niniejszym tomie problemów z różnych punktów widzenia da odbiorcy możliwość wyrobienia własnego poglądu.
Redaktor |
|||
Andrzej Zimniak MANIPULACJE GENETYCZNE - PRZEKLEŃSTWO CZY NADZIEJA? Wprowadzenie
W wieku XX człowiek dokonał tylu wynalazków i odkryć, że bez przesady można mówić o zmianie oblicza naszej cywilizacji w tym stosunkowo krótkim okresie. Nie wyliczając wszystkiego, wspomnijmy o samochodzie, samolocie, antybiotykach, reakcjach termonuklearnych, telewizji i komputerach. Każde z tych przełomowych osiągnięć zmieniało bieg dziejów całych społeczeństw, i proces ten trwa nadal, bo era powszechnej komputeryzacji właściwie dopiero się zaczyna, a energetyka jądrowa z pewnością znajdzie znacznie szersze zastosowanie niż ma to miejsce dzisiaj, być może przy zastosowaniu fuzji nuklearnej. Organizm człowieka, a także podstawowa konstrukcja genetyczna całego świata ożywionego, pozostawały w zasadzie niezmienne od ok. 10 tysięcy lat, ponieważ przemiany ewolucyjne są bardzo powolne w porównaniu z cywilizacyjnymi. Technologia kształtowała nowe warunki bytowania, niektóre gatunki zostały wyparte ze swoich nisz ekologicznych lub wyginęły, inne żyją z ludzką cywilizacją w symbiozie lub są hodowane. Człowiek z niejakim trudem dostosowuje się, ale tylko mentalnie, do szybko następujących zmian środowiska swojego życia, które sam wprowadza. Wszakże wydaje się, że teraz, w końcu drugiego tysiąclecia, poznaliśmy sposób, jak zmieniać siebie fizycznie, jak modyfikować swoją organiczną architekturę, i jak robić to samo z całym światem ożywionym. A ponieważ historia uczy, że każdy wynalazek i każde ludzkie odkrycie prędzej czy później znalazło zastosowanie, jeśli tylko mogło się do czegoś przydać, więc i w tym przypadku raczej między bajki trzeba włożyć różnego rodzaju deklaracje, ograniczające badania nad ingerencją w genom. Oczywiście, tzw. godność ludzka będzie respektowana, ale zapewne tylko w krajach, które zobowiążą się do tego przez ratyfikowanie odpowiednich konwencji. Natychmiast nasuwa się porównanie z jakże nieskutecznymi układami o nieproliferacji broni jądrowej, a trzeba zauważyć, że laboratorium genetyczne można wyposażyć znacznie taniej i łatwiej niż najprostszą placówkę badań nuklearnych. Wobec zupełnie niesłychanych możliwości aplikacyjnych metod transgenicznych można przypuszczać, że następne stulecie będzie wiekiem biotechnologii. Prezentowane opracowania dotyczą dwóch odrębnych procesów: transgenizacji i klonowania. Jak wiadomo, geny są nośnikami pełnej informacji o żywych organizmach, i wprowadzane do nich modyfikacje są przyczyną zmiany cech fenotypowych. Transgenizacja to nic innego jak wprowadzenie do genomu obcego genu, który doprowadzi w docelowym organizmie do zaistnienia pożądanej cechy. Natomiast klonowanie jest sposobem rozmnażania bezpłciowego, prowadzącym do powstania identycznych genotypowo osobników; do organizmów potomnych nie wprowadza się żadnych nowych cech. Dla ssaków, a więc także człowieka, naturalnym sposobem rozmnażania jest sposób płciowy, choć i tutaj w wyniku szczególnego zbiegu okoliczności mogą powstawać klony - są nimi bliźnięta jednojajowe. O klonowaniu człowieka piszemy niewiele; jest to obecnie temat na pewno trudny, i przy jego podejmowaniu nie można ominąć fundamentalnych problemów etycznych. Wydaje mi się jednakże, że jeszcze większym wyzwaniem będzie genetyczna modyfikacja ludzkich komórek rozrodczych, albowiem wprowadzone w ten sposób cechy będą dziedziczone. Czy dysponujemy już wystarczającą wiedzą, aby zmieniać architektoniczny plan naszych organizmów, nawet w celach terapeutycznych? Kto i kiedy ma zdecydować, że ta wiedza jest już wystarczająca? |
|||
Tomasz Łęski NATURALNE PROCESY TRANSGENIZACJI (fragment)
Mikroorganizmy należące do rodzaju Agrobacterium już od ok. miliona lat znają sposób na wprowadzanie własnych genów do zasiedlanych komórek roślinnych. Proces, dzięki któremu bakterie dokonują tej sztuki, naukowcy nazwali "kolonizacją genetyczną". Odkrycie mechanizmu tego zjawiska umożliwiło zastosowanie Agrobacterium w inżynierii genetycznej roślin. Już od wielu lat przy użyciu tego drobnoustroju bada się wiele podstawowych procesów, zachodzących w komórkach roślinnych. Rozszyfrowanie tajników cyklu życiowego Agrobacterium i zaprzęgnięcie tej bakterii do umieszczania w komórkach roślinnych genów pochodzących z rozmaitych organizmów było początkiem wielkiego przełomu w biotechnologii roślin. Tym sposobem wytwarza się obecnie dziesiątki odmian, dotychczas nie istniejących w przyrodzie. Pierwsze produkty, będące efektem tego przełomu, takie jak owoce ulepszonych odmian pomidora czy ziarno pochodzące ze zmodyfikowanej genetycznie soi, są dostępne w USA już od kilku lat, a obecnie pojawiają się na rynkach europejskich. Z pewnością w niedalekiej przyszłości zostanie opracowana technologia, pozwalająca na wytwarzanie takich roślin transgenicznych, w których produkowane będą białka niezbędne w medycynie, np. czynniki krzepnięcia krwi czy też białka wirusowe, potrzebne do taniej produkcji szczepionek. Bardzo prawdopodobne jest także, że w roślinach będzie można wytwarzać wiele półproduktów dla przemysłu chemicznego, na przykład surowców do syntezy pewnych tworzyw sztucznych. |
|||
REWOLUCJA W GENETYCE A EWOLUCJA CZŁOWIEKA Z Marcinem Ryszkiewiczem rozmawia Andrzej Zimniak (fragment)
M.R.: Z powyższego wniosku wynika kolejny błąd twórców eugeniki. Zakładali oni, że jednorodność człowieka, oparta na modelu norm, do których należy dążyć, będzie lepsza niż cała różnorodność, jaka istnieje dzisiaj, i która nie daje się uporządkować w kategoriach podobieństwa do normy. Jeżeli przyjmiemy, że nie jednorodność, a różnorodność jest wartością, to nie bardzo wiadomo, co należy hodować, bo wtedy właściwie należałoby hodować różnorodność, a jeśli tak, to lepiej pozostawić wszystko dotychczasowym mechanizmom, które właśnie tę różnorodność wytworzyły. A dzisiaj nie mamy wątpliwości, że właśnie jednym z motywów ewolucji jest zachowywanie wielkiej różnorodności osobniczej w obrębie gatunku. Że to ona właśnie jest pewną specyficzną wartością, z czego eugenicy i w ogóle ewolucjoniści wcześniej nie zdawali sobie sprawy. No więc mamy kolejny problem: niebezpieczeństwo, że jeśli zastąpimy dobór naturalny, który w dużej mierze przestał istnieć, manipulacjami genetycznymi, to wówczas wytworzymy pewien typ fenotypu, który może okazać się nieodporny na naturalne zmiany środowiska w przyszłości. Oczywiście, odpowiedź jest taka, że jeśli zachowamy odpowiednią różnorodność, to będziemy, być może, uodpornieni na ewentualne zmiany środowiskowe. Ale może być też inna odpowiedź: że człowiek nie tylko nie podlega doborowi naturalnemu, ale nie podlega też i zachodzącym zmianom środowiskowym, a przynajmniej podlega im w niewielkim stopniu, ponieważ naszą ewolucję w dużej mierze można potraktować jako rodzaj samoudomowienia. Ten motyw pojawia się w antropologii dość często. Mamy pewne cechy fizyczne, które są typowe dla zwierzęcych gatunków udomowionych, ale w tym przypadku hodowcą byłby sam człowiek w czasie ewolucyjnym, czyli odpowiednio długim. Naszym środowiskiem naturalnym jest sztuczne środowisko, które sobie stworzyliśmy. W dużej mierze, i ten proces coraz bardziej postępuje, jesteśmy oderwani od środowiska naturalnego. To właśnie dlatego ludzie mogli rozprzestrzenić się po całym świecie i żyć praktycznie we wszystkich możliwych środowiskach naturalnych, chociaż ich fenotyp zmienił się minimalnie. Eskimos na dalekiej północy i Murzyn, przynajmniej w miastach afrykańskich, żyją dziś praktycznie w tych samych środowiskach, ponieważ w obu przypadkach stworzone zostały warunki, które odpowiadają naszym upodobaniom. Jeśli tak, to nasz fenotyp nie jest przystosowany do bezpośredniego środowiska naturalnego, tylko przeciwnie, my to środowisko podporządkowujemy naszemu fenotypowi. W związku z tym należy się raczej spodziewać, że będziemy w dalszym ciągu odrywać się od naturalnych warunków środowiskowych, i ich ewentualne zmiany, które zresztą sami prowokujemy na coraz większą skalę, nie powinny wpłynąć na kwestię naszego przystosowania do życia w świecie, bo my jesteśmy przystosowani do życia w świecie coraz bardziej nienaturalnym. My ten świat przystosowujemy do naszych potrzeb, a nie odwrotnie. |
|||
Mariusz M. Żydowo BIOETYCZNE KONSEKWENCJE MOLEKULARNYCH MANIPULACJI GENETYCZNYCH (fragment)
Przez tysiąclecia kształtowania kultur dużą rolę odgrywała refleksja nad zastaną rzeczywistością, dzięki czemu powstała klasyczna mentalność kontemplacyjna, cechująca do niedawna większość badaczy i kręgi wykształconych członków społeczeństwa. Kiedy osoba myśląca w sposób klasyczny kontemplowała naturę, odnajdywała w niej cechy podstawowe, które powinny być respektowane dla samej jej istoty. Czasy współczesne, charakteryzujące się ogromnym rozwojem techniki i powstaniem nowoczesnych państw dobrobytu, rozpoczęły się od wykształcenia nowej umysłowości, którą możnaby nazwać manipulacyjną. W przeciwieństwie do świadomości klasycznej, w mentalności dnia dzisiejszego kontemplacja rzeczywistości nie odgrywa prawie żadnej roli. Człowiek współczesny zna jakąś rzecz wtedy, kiedy wie, co z nią zrobić. Modyfikacja rzeczywistości jest najbardziej ludzkim posunięciem, jakiego może dokonać człowiek w naszych czasach. |
|||
Jerzy Nowak NADZIEJE I OBAWY ZWIĄZANE Z POZNANIEM LUDZKIEGO GENOMU (fragment)
Istotny wpływ na występowanie wielu chorób uwarunkowanych genetycznie, w szczególności dotyczących tzw. predyspozycji lub skłonności genetycznych, ma szeroko pojęte środowisko. Szereg skłonności może ulec ujawnieniu wyłącznie pod wpływem środowiska. Tak też należy rozumieć genetyczne uwarunkowania homoseksualizmu lub skłonności do zachowania agresywnego. Aktualnie bardzo wiele kontrowersji budzi kwestia uwarunkowań genetycznych czynów przestępczych. Można stwierdzić, że zachowanie agresywne może być uwarunkowane genetycznie, jednak nie można mówić o genetycznych skłonnościach do czynów przestępczych. Czyny przestępcze bowiem mają miejsce jedynie w określonych, "sprzyjających" warunkach. Z kolei osoba o genetycznie uwarunkowanym agresywnym zachowaniu może bardzo pozytywnie działać np. jako naukowiec czy polityk. Na podstawie powyższych rozważań nie można mówić o genie kryminalisty, a jedynie o uwarunkowaniach genetyczno - środowiskowych pewnych zachowań z przewagą wpływu jednej lub drugiej komponenty. Badania w USA 3200 bliźniąt monozygotycznych wykazały, że agresywne antyspołeczne zachowanie w okresie dzieciństwa uwarunkowane jest głównie wpływami środowiska, natomiast w wieku dorosłym przede wszystkim wpływami genetycznymi z niewielkim wpływem środowiska. Rodzi sie kolejne pytanie: czy w związku z tym osobnik z genetycznie uwarunkowanym agresywnym zachowaniem jest w stanie postępować inaczej, niż nakazują mu geny? Z uwagi na to, że większość przestępstw popełnianych jest pod wpływem alkoholu, badano warianty enzymu, uczestniczącego w metaboliźmie alkoholu (dehydrogenazy alkoholowej - ALDH). Osobnicy, posiadający tzw. wariant ALDH2 mają 5 do 10-krotnie mniejsze ryzyko zostania alkoholikami. Geny receptora dopaminy i serotoniny mogą mieć związek z agresywnym zachowaniem. Mutacja w genie receptora hormonu tarczycy może spowodować hyperreaktywność. Ostatnio wykazano mutację w genie monoaminooksydazy A u trzech mężczyzn bardzo agresywnej rodziny w Danii. Jak dotąd nie ustalono jednego genu odpowiedzialnego za agresywne zachowanie. Tym niemniej wydaje się, że pewna konstelacja genów może predysponować do czynów przestępczych w "odpowiednich" warunkach środowiskowych. Z badań nad dziećmi - bliźniętami adoptowanymi wynika, że zmiana środowiska niekoniecznie wpływa modyfikująco na genetycznie uwarunkowane kryminalne postępowanie. Z drugiej strony, związek pomiędzy zachowaniem agresywnym i chorobami umysłowymi jest sprawą powszechnie znaną i ujętą w kodeksach postępowania prawnego. Można sądzić, że zaburzenia genetyczne, jeszcze nie prowadzące do pełnego ujawnienia choroby umysłowej, mogą już być przyczyną zachowań kryminalnych. Do przytoczonych danych należy odnosić się z dużą rezerwą. Jest rzeczą oczywistą, że ciało i umysł danego człowieka kształtują zarówno geny, jak i środowisko, a nie tylko jeden z tych czynników. Wyniki badań sugerujące dziedziczną skłonność do czynów przestępczych nie dają żadnych podstaw do przypuszczeń, że geny wytłumaczą różnice w częstości występowania przestępstw pomiędzy grupami społecznymi lub rasami. Duży wzrost przestępczości w USA w latach 60 i 70 oraz w latach 90 w Polsce daje się wytłumaczyć nie wpływami genetycznymi, ale wyłącznie środowiskowymi. Należy podkreślić, że obecnie nie istnieje żaden diagnostyczny test genetyczny, pozwalający przewidywać skłonność do popełniania przestępstw. Uważa się wręcz, że przestępczość jest zbyt uwarunkowana społecznie, by kiedykolwiek stała się przedmiotem większego zainteresowania genetyków. Dlatego też w USA w ramach zwalczania przestępczości znacznie większe środki przeznaczane są na budowę więzień niż na badania naukowe. W świetle najnowszych badań należy nieco inaczej spojrzeć na problem samobójstw. Mówi się wręcz o neurobiologii samobójstwa, w którym pewną rolę mogą odgrywać uwarunkowania genetyczne. Z drugiej strony istnieje coraz więcej dowodów na to, że zadowolenie z życia ma podłoże genetyczne. Trwają nawet poszukiwania genów szczęścia (happiness genes). Dużą rolę przypisuje się receptorom dopaminy. Wykazano nawet korelację pomiędzy polimorfizmem genu receptora dopaminy D4 (sekwencja hyperzmienna w trzecim eksonie) a pozytywnym nastawieniem do życia. Homoseksualizm już od pewnego czasu nie figuruje w podręcznikach psychiatrii jako jednostka chorobowa, a przez część środowiska lekarskiego nie jest nawet zaliczany do dewiacji seksualnych. Biorąc pod uwagę, że homoseksualizm dotyczy ok. 10% populacji i jest prawdopodobnie w dużym stopniu uwarunkowany genetycznie, niektórzy przyjmują, że jest to prawidłowa cecha, jednakże z uwagi na uwarunkowania kulturowo-cywilizacyjne wzbudza ona wiele dyskusji i kontrowersji. Zakładając, że homoseksualizm jest cechą niekorzystną, lub, jak kiedyś uważano, schorzeniem, nasuwa się pytanie, czy nie należałoby podjąć odpowiedniego leczenia. Jeżeli ludzie o cechach homoseksualnych chcieliby mieć dzieci nie obarczone tą cechą, czy wówczas moralnie nie byłoby uzasadnione wykorzystanie inżynierii genetycznej w celu zmiany zachowania homoseksualnego na heteroseksualne? Byłoby to postępowanie terapeutyczne analogiczne do leczenia np. niepłodności czy schizofrenii, uwarunkowanej genetycznie. Należy wyraźnie podkreślić, że jeżeli pewna kwestia, jak np. genetyczne uwarunkowanie homoseksualizmu, jest etycznie kontrowersyjna i trudna, nie znaczy to, że nie powinna być szczególnie wnikliwie badana. |
|||
Stanisław Warzeszak STWÓRCZOŚĆ CZŁOWIEKA W DZIEDZINIE GENTECHNOLOGII Z punktu widzenia teologa (fragment)
Człowiek wierzący poznaje świat w aspekcie Stworzenia, ale zasady swego działania niekoniecznie musi bezpośrednio wyprowadzać z wiary, aby były one moralnie poprawne. Bowiem imperatyw etyczny jest dostępny dla ludzkiego poznania poza wiarą i może być wyprowadzony z porządku ściśle racjonalnego. Jednak teolog stwierdza, że rozum praktyczny, uformowany przez wiarę, posiada zdolność głębszego wglądu w rzeczywistość, jak również ostrzejszego uchwycenia imperatywu etycznego. To pozwala na postawienie nowych, dojrzalszych pytań, które znajdują odpowiedź nie tyle co do treści rzeczywistości, lecz co do jej sensu. Wynika stąd zasada, że działanie moralnie usprawiedliwione z punktu widzenia rozumu ludzkiego powinno dać się uzasadnić z racji teologicznych. I odwrotnie, to co przyjmujemy jako imperatyw teologiczny, winno dać się usprawiedliwić także na gruncie antropologii. Przy użyciu tej metody, zwanej metodą korelacji, zostanie przedstawiona ocena moralna inżynierii genetycznej i klonowania. Wychodząc z założenia, że czytelnik postawił sobie już przynajmniej najogólniejsze pytania w odniesieniu do etycznej dopuszczalności inżynierii genetycznej i klonowania, możemy bezpośrednio przystąpić do naświetlenia teologiczno-moralnych kryteriów oceny genetyki, by następnie zaproponować rozstrzygnięcia szczegółowe. |
|||
Alicja Przyłuska-Fiszer BIOETYKA A GENETYKA (fragment)
Idea ulepszania właściwości dziedzicznych przyszłych pokoleń ma dosyć długą tradycję. Już Platon w "Państwie" sugerował konieczność doboru par małżeńskich w celu uzyskania jak najbardziej doskonałego potomstwa. Twórcą zarówno samego terminu, jak i nowoczesnej idei eugeniki był, jak wiadomo, Francis Galton, który użył terminu eugenika w 1869 r. na określenie sytemu poglądów głoszących możliwość doskonalenia cech dziedzicznych człowieka, a tym samym gatunku ludzkiego. Słowo "eugenika" jest pochodzenia greckiego i oznacza "dobrze urodzonego" (gr. eu - dobrze, gen - rodzący). Polityka eugeniczna była praktycznie stosowana na początku XX wieku w Ameryce Północnej i niektórych krajach Europy do wspierania restrykcyjnej polityki imigracyjnej. Do, wydawałoby się, ostatecznej kompromitacji idei eugenicznych przyczyniła się ideologia III Rzeszy, oparta m. in. na wypaczonej eugenicznej idei rasy. Rozwój wiedzy genetycznej przyczynił się jednak do ponownego zainteresowania eugeniką w latach pięćdziesiątych naszego wieku. |
|||
Krzysztof Lipka-Chudzik STRACH PRZED SOBOWTÓREM Literackie i filmowe egzemplifikacje naszych lęków i nadziei (fragment)
Twórczość filmowa i literacka bywa krzywym zwierciadłem, w którym dostrzec można karykaturę rzeczywistości. Niezależnie od tego, czy w owym lustrze przeważać będzie kolor różowy, czy czarny, punktem wyjścia nawet najbardziej nieprawdopodobnych wizji przyszłości jest nasza swojska, powszednia teraźniejszość. Innymi słowy, w ogólnie rozumianej twórczości popularnej oprócz motywów czysto rozrywkowych przewijają się najbardziej aktualne bolączki, lęki i nadzieje ludzkości. Można tam znaleźć mniej lub bardziej udane prognozy cywilizacyjne, a także społeczne echa wątpliwości, rodzących się na styku etyki i burzliwie rozwijającej się technologii. Pojawiają się więc historycy z przyszłości, próbujący podsumować wiek XX - spróbujmy i my przez chwilę zabawić się w takich badaczy. |
|||
The Council for Secular Humanism DEKLARACJA W OBRONIE KLONOWANIA I NIEZAWISŁOŚCI BADAŃ NAUKOWYCH (fragment)
My, niżej podpisani, z zadowoleniem przyjmujemy wiadomości o poważnym postępie w klonowaniu wyższych zwierząt. Podczas tego stulecia fizyka, biologia oraz nauki behawioralne przysporzyły człowiekowi nowych, ważnych możliwości. W ogólnym bilansie, postęp w tych dziedzinach przyczynił się do ogromnej poprawy ludzkiego bytu. Ilekroć nowe technologie nasuwały uzasadnione pytania etyczne, społeczność ludzka zawsze wykazywała gotowość otwartego podejmowania tych pytań i poszukiwania odpowiedzi, które służą powszechnej pomyślności. Klonowanie wyższych zwierząt wywołuje niepokoje etyczne. Należy obmyśleć odpowiednie zabezpieczenia przed nadużyciami, zapewniając równocześnie maksymalną dostępność korzyści płynących z klonowania. Powinno się przy tym respektować w jak najszerszym zakresie autonomię i swobodę wyboru każdej jednostki ludzkiej. Należy też dołożyć wszelkich starań, by nie została ograniczona wolność i niezależność badań naukowych. |
|||
STANOWISKO PREZYDIUM PAN W SPRAWIE FORM TRANSGENICZNYCH ORAZ KLONOWANIA I BADAŃ NAD KLONOWANIEM ORGANIZMÓW (1997 r.)
Szybkie postępy biologii molekularnej przyniosły różnorodne zastosowania w uprawie roślin, hodowli zwierząt, produkcji leków i medycynie. Z dużym prawdopodobieństwem można przewidywać dalszy, szybki rozwój we wszystkich tych kierunkach. Badania, jak i późniejsze ich zastosowania, szczególnie jeśli dotyczą wykorzystywania organizmów transgenicznych do produkcji żywności czy leków, winny podlegać dokładnym testom kontrolnym, a ich pośrednie i końcowe postacie być wyraźnie oznaczone. Wymaga to procesów legislacyjnych i powołania służb państwowych odpowiedzialnych za kontrolę ich stosowania, które jednak w żadnym wypadku nie powinny stanowić hamulca dla badań i produkcji. Osobną sprawą jest klonowanie ssaków. Udany eksperyment wykonany na owcy wskazuje na potencjalne możliwości sklonowania człowieka. Nie należy mieć złudzeń, że niektórzy ludzie będą chcieli powielać z pokolenia na pokolenie swoje kopie, względnie kopie osób bliskich. Taka możliwość od dawna przez biologów rozpatrywana, w niedalekiej przyszłości może zostać zrealizowana. Klonowaniu ludzi środowisko uczonych powinno się przeciwstawić solidarnie i zdecydowanie. Negatywne konsekwencje w zakresie społecznym i etycznym są niewyobrażalne. Nie ma natomiast powodów, aby hamować dalsze badania w zakresie klonowania ssaków, ale ich zastosowania winny podlegać nadzorowi społecznemu, a środowisko naukowe winno się skutecznie przeciwstawić stosowaniu uzyskanych w tym zakresie metod u człowieka. |
|||
Poprzednio zamieszczone artykuły z tego działu: • Czy można zarazić się schizofrenią? • Rola słowa w cywilizacji obrazkowej • Recenzje publikacji popularyzatorskich
|
Planowane: • Antybiotyki - cudowna broń XX wieku
|