Rozmowa z prof. Janem Węglarzem, informatykiem, o inteligentach
i sztucznej inteligencji.
2001. Odyseja kosmiczna stworzona przez Stanleya Kubricka i Arthura
C. Clarka przed ponad 30 laty nakreśliła wizję informatyki na początku
trzeciego tysiąclecia. Komputer HAL, kluczowa postać kultowego już filmu,
potrafi nie tylko mówić, myśleć i grać w szachy. Umie czytać z ruchu ust
i obdarzony jest typowo ludzkimi cechami: ma uczucia i odczuwa wątpliwości.
Jak naprawdę wygląda informatyka w 2001 r.?
Wizja ta dotyczy tzw. sztucznej inteligencji, jednego z wielu, choć
niekoniecznie najważniejszego działu informatyki, zwłaszcza jeśli chodzi
o praktyczne zastosowania, bardzo natomiast podatnego na fantazjowanie.
Jest to wizja maksymalistyczna, traktująca sztuczną inteligencję zgodnie
z definicją Marvina Minsky'ego, czyli jako naukę o maszynach realizujących
zadania - które gdyby były realizowane przez człowieka - wymagałyby
inteligencji.
Osobiście wolę definicję Feigenbauma i McCorducka, według której sztuczna
inteligencja to dział informatyki zajmujący się symboliczną reprezentacją
wiedzy i symbolicznym wnioskowaniem przez komputer z wykorzystaniem tej
wiedzy. To że komputer jest nie tylko urządzeniem do obliczeń arytmetycznych,
ale ogólnym systemem przetwarzania symboli, zauważono już ok. 60 lat temu.
Rozwój badań nad sztuczną inteligencją, możliwy m.in. dzięki postępowi
w całej informatyce, przebiegał bardziej w zgodzie z definicją Feigenbauma
i McCorducka niż Minsky'ego.
Pan jednak pytał o informatykę w 2001 r. Powiem krótko: co oznacza ona
w codziennym życiu, każdy widzi. Mało kto natomiast zdaje sobie sprawę
z tego, czym jest informatyka jako dyscyplina naukowa i jakie jest jej
miejsce we współczesnej nauce. A przecież przedmiotem zainteresowania tej
dziedziny jest wszystko, co wiąże się z informacją i jej przetwarzaniem.
Nie chodzi więc tu tylko o systemy elektroniczne, czyli współczesne komputery,
ale także systemy znacznie ogólniejsze - fizyczne i biologiczne. Michio Kaku,
znany fizyk japoński, w swej książce "Wizje" uważa nawet, że do opisu świata
materialnego wystarczy w zasadzie fizyka i informatyka, gdyż już nawet
genetykę molekularną można traktować jako dział informatyki.
Czy nie obawia się pan, że w pewnym momencie technologia może wymknąć
się spod kontroli? W ubiegłym roku Bill Joy, kierujący badaniami w koncernie
Sun Microsystems, napisał katastroficzny esej "Dlaczego przyszłość nie potrzebuje
nas?" (Why the future doesn't need us?). Pisze w nim, że na skutek systematycznego
wzrostu mocy mikroprocesorów zgodnie ze słynnym prawem Moore'a pojawienie się
sztucznej inteligencji jest tylko kwestią czasu - najbliższych 20-30 lat.
Połączenie takiego rozwoju informatyki z postępem w biologii molekularnej
i nanotechnologii ma doprowadzić do odebrania gatunkowi ludzkiemu luksusowej
pozycji "korony stworzenia" i może wręcz zakończyć się unicestwieniem
ludzkości. Czy akceptuje pan taką wizję?
Zakończmy najpierw wątek związany ze sztuczną inteligencją czy raczej jej
granicami. Te ostatnie wyznacza przekonanie genetyków, że mózgu nie można
sklonować (por. wywiad z prof. Piotrem Słonimskim (POLITYKA 52/2000),
więc tym bardziej nie można go w pełni zastąpić tworem sztucznym.
Natomiast istota pańskiego pytania sprowadza się do tego, czy rozwój nauki
prowadzi do rozwoju cywilizacji, czy też do jej unicestwienia. Moim zdaniem
jest to pytanie o to, czy rozwój nauki jest zsynchronizowany z rozwojem
moralnym ludzkości, czy też nie. Osobiście wierzę, że tak, choć jest to
bardziej sprawa wiary niż empirii.
Stworzył pan uznaną na świecie szkołę naukową - domyślam się, że
Fundacja na rzecz Nauki Polskiej, która ostatnio przyznała panu nagrodę,
próbowała oddać istotę pańskich prac w werdykcie. Mam jednak obawy, że
sformułowanie "rozwijanie metod projektowania informatycznych systemów
zarządzania i sterowania produkcją, wykorzystujących szeregowanie
dyskretno-ciągłe" jest niezrozumiałe dla wielu czytelników.
Rzeczywiście, to dosyć hermetyczna puenta, jednak to, co robimy, dotyczy
problemów spotykanych nie tylko w przemyśle czy w systemach komputerowych,
ale także w codziennym życiu. Praktycznie wszędzie występują bowiem
zadania, które trzeba jak najlepiej wykonać dysponując ograniczonymi
zasobami. Wyobraźmy sobie np. szkołę, która ma rozplanować zajęcia dla
kilkunastu klas.
Do wykonania tych zajęć (zadań) służą pewne zasoby - nauczyciele, sale
lekcyjne, a dodatkowym ograniczeniem jest ich dostępność w czasie. Problem
polega na tym, by te ograniczone zasoby tak przyporządkować do zadań, aby
otrzymany rozkład zajęć był jak najlepszy. W przypadku szkoły zagadnienie
jest stosunkowo proste, przynajmniej jeśli chodzi o model matematyczny, ale
jeśli weźmiemy gospodarkę państwa, gdzie należy zrealizować olbrzymią
liczbę zadań, dla których wykonania dysponujemy wielką różnorodnością
zasobów: ludzi, pieniędzy, energii, surowców itd., to określenie ich
optymalnego wykorzystania jest sprawą skomplikowaną. Jednym z elementów
komplikujących jest fakt, że możemy mieć do czynienia z zasobami różnej
natury: ciągłymi, jak np. pieniądze lub energia, i dyskretnymi, czyli
dzielącymi się na jednostki, jak obrabiarki czy środki transportu. By
poradzić sobie z tymi problemami, potrzebne są zaawansowane modele
matematyczne i algorytmy. W moim zespole zdecydowaliśmy się zaatakować tę
problematykę i w konsekwencji należymy do inicjatorów nowego kierunku badań
o potencjalnie bardzo istotnym znaczeniu nie tylko dla gospodarki, ale
również samej informatyki. Bowiem w systemie komputerowym również mamy do
czynienia z zasobami: procesorami, pamięcią operacyjną, urządzeniami
zewnętrznymi itd., które należy jak najefektywniej przydzielać
użytkownikom.
Jak wygląda praktyczne wykorzystanie pańskich wyników?
Jeśli chodzi o systemy produkcyjne, to prace mojego zespołu znacznie
wyprzedzają naszą rzeczywistość. Pamiętajmy, że miernikiem jakości badań
naukowych są publikacje w liczących się wydawnictwach o zasięgu
międzynarodowym, a te przyjmują do druku tylko prace prezentujące
najciekawsze rozwiązania w skali świata. Tymczasem w polskim przemyśle nie
istnieją np. elastyczne systemy produkcji, w których dynamiczne
zarządzanie zasobami różnych typów ma podstawowe znaczenie. Lepiej jest w
zakresie systemów komputerowych - tu niektóre algorytmy możemy już
sprawdzać w praktyce także w naszym kraju. Ponadto wkrótce otworzą się tu
nowe perspektywy - wykorzystanie naszych wyników w zarządzaniu
rozproszonymi zasobami informatycznymi w powstającej właśnie szybkiej,
krajowej sieci komputerowej.
Czy nie obawia się pan, że pańscy absolwenci padną ofiarą drenażu
mózgów i wyjadą do Niemiec lub Stanów Zjednoczonych, które kuszą specjalną
ofertą dla informatyków-obcokrajowców?
Nie obawiam się. Po pierwsze w Polsce dobry informatyk nie ma problemu z
ciekawą i całkiem dobrze płatną pracą. Po drugie, geograficzne miejsce
pracy, zwłaszcza w informatyce, przestaje mieć istotne znaczenie. Istnieją
już zresztą w Polsce ośrodki tworzące oprogramowanie nawet dla największych
koncernów, mój zespół również otrzymuje różne zadania od partnerów
zagranicznych.
Znacznie bardziej niepokoi mnie niepodejmowanie przez młodych, zdolnych
informatyków pracy w uczelniach. W konsekwencji już niedługo zabraknie u
nas kadry mogącej kształcić twórczych informatyków. Nie można bowiem
kształcić na wysokim poziomie bez prowadzenia badań. Niestety, nie widać
jasnej polityki państwa, która przeciwstawiałaby się tej niebezpiecznej dla
kraju tendencji. Z jednej strony mamy deklaracje poparcia dla idei
społeczeństwa informacyjnego, z drugiej zaś strony informatyka w uczelniach
technicznych, czyli kierunek zdecydowanie najbardziej kosztochłonny, jest
źle traktowana przy podziale dotacji budżetowej z MEN. Podobnie było do
niedawna w Komitecie Badań Naukowych, który jednak w tym roku wydzielił ok.
8 proc. środków na działalność statutową jednostek naukowych do podziału
według priorytetów, na czym oczywiście informatyka skorzystała.
Czy słabość przetargowa informatyki akademickiej nie wynika po części
z atmosfery, jaka otacza różne wielkie projekty informatyczne? Pochłaniają
one olbrzymie pieniądze, a sukcesów nie widać, by wspomnieć złej sławy
informatyzację ZUS. Czy środowisko naukowe nie powinno aktywniej uczestniczyć
w takich projektach, a przynajmniej głośno wyrażać opinie na temat
nieprawidłowości?
Prawda jest taka, że środowisko naukowe nie jest w takich projektach
partnerem, tu w grę wchodzą wielkie pieniądze i interesy, na które nie mamy
wpływu. Poza tym, czym innym jest ocena projektu pod względem informatycznym,
a czym innym jego wdrożenie, uzależnione nie tylko od nauki i techniki, ale
również np. kwestii prawnych, organizacyjnych czy nawet politycznych.
Szkoda natomiast, że tak chętnie mówi się o nieprawidłowościach, a nie
dostrzega się sukcesów. Przykładem takiego informatycznego sukcesu jest
zbudowanie w Polsce, ze środków i pod patronatem KBN, za stosunkowo bardzo
skromne pieniądze, nowoczesnej infrastruktury informatycznej obejmującej
miejskie sieci komputerowe we wszystkich ważnych ośrodkach naukowych i
akademickich, będącej pełnowartościowym elementem infrastruktury
międzynarodowej. Powstały centra superkomputerowe, które choć nie
dysponują systemami o wysokiej mocy obliczeniowej, to jednak oferują dostęp
do nowoczesnych architektur komputerowych i specjalistycznego
oprogramowania. Obecnie rozpoczyna się realizacja programu Pionier, czyli
Polskiego Internetu Optycznego. W jego wyniku powstanie bardzo nowoczesna
infrastruktura, która będzie służyć nie tylko nauce, ale również umożliwi
rozwój szeroko rozumianych zaawansowanych usług dla społeczeństwa
informacyjnego, takich jak zdalne nauczanie, telemedycyna czy ochrona
środowiska.
Rozmawiał: Edwin Bendyk
Wywiad ukazał się w Polityce (??/2001). Powyższy tekst znajduje się tutaj
bez żadnej zgody autora, ale mam nadzięję, że ludzie będą wyrozumiali dla
nas...