Czy warto się jeszcze uczyć?
Pytanie zawarte w tytule tego tekstu nie jest wcale takie prowokacyjne. Moim celem nie jest bynajmniej doprowadzenie czytelnika do jedynie słusznego wniosku, że wiedza jest potęgą. Pytam serio: czy warto się uczyć? Pomijając aspekty formalne (konieczność zdobycia formalnego wykształcenia, zbudowanie wartości na rynku pracy itd.), czy zdobywanie coraz to nowej wiedzy i umiejętności ma uzasadniony cel? Szczególnie w czasach, gdy wiedza jest masowo magazynowana w dostępnym od ręki repozytorium pod nazwą „Internet”, a umiejętności nas, ludzi, często przejmują automaty.
Może się bowiem zdarzyć tak (i zdarza się coraz częściej), że zainwestowane w rozwój środki nigdy się nie zwrócą. Nie mam tu na myśli nieudanych studiów podyplomowych, które mogą skonsumować dwa lata i kilka (kilkanaście) tysięcy, dając w zamian jedynie dyplom. Mówię raczej o ogromnej zmianie technologicznej, a co za tym idzie – również pokoleniowej – której świadkami jesteśmy.
Roboty i innego typu maszyny zastąpiły nas już skutecznie w zawodach związanych z precyzją, dużą powtarzalnością czy szybkością działań – żadna nowość. Obserwując linie produkcyjne w fabrykach widzimy przede wszystkim ramiona robotów i taśmy transportowe. Ludzie, niczym mrówki, uwijają się dokoła, starając się nadążyć za tym, co robi maszyna. Walka ta jest z góry przegrana, bo w większości wypadków maszyna może pracować jeszcze szybciej, czasem nawet kilkukrotnie zwiększając swoją wydajność. Nie dzieje się tak tylko dlatego, bo to człowiek jest wąskim gardłem. Jego percepcja, szybkość, zwinność są na poziomie ponadprzeciętnym (bo praca „przy taśmie” wyrabia pewne zdolność), ale i tak wiemy, że prędzej czy później pojawi się zrobotyzowane ramię, które będzie na tym polu bezkonkurencyjne.
To prawda, że człowiek wciąż jest potrzebny do niektórych zadań, ale ile to jeszcze potrwa? W zeszłym stuleciu człowiek był niezbędny w całym procesie produkcji samochodu, dziś wymagany jest jedynie w skromnym procencie. Lubimy się pocieszać, że w tym najważniejszym…
Lada dzień więc wykorzystywanie do pracy ludzi, prawdziwych, z krwi i kości, będzie objawem: a) snobizmu ukrytego pod pozorem prestiżu, bo fajnie mieć swoją fabrykę z ludźmi, b) kosztów, bo robot, mimo swej wydajności, wcale nie musi być tańszy.
Pisałem do tej pory w zasadzie o zawodach nie wymagających kilkuletnich studiów i kilkunastoletniej praktyki. Jednak czy tak samo może być w dziedzinach, które dotychczas kojarzyły nam się z ogromną wiedzą osób podejmujących się pracy w nich? Prawnicy i lekarze jako sztuczna inteligencja?
To się już dzieje i jest skuteczne! IBM przed laty stworzył superkomputer o nazwie Watson, który nie tylko potrafi magazynować wiedzę, samodzielnie się uczyć, ale przede wszystkim odpowiadać na pytania zadawane w języku naturalnym. Innymi słowy: wystarczy podejść jak do wyroczni i zadać pytanie. Watson ma je właściwie zinterpretować, włączając w to różne konteksty i możliwe niuanse.
Coś, co pięć lat temu było prototypem, dziś sprawdza się całkiem nieźle w praktyce. Watson doradza w zakresie prawa i medycyny, a co najistotniejsze – robi to w dużej mierze samodzielnie. Jeszcze w 2011 r. Watson miał wiedzę na poziomie studenta drugiego roku medycyny, włączając w to nie tylko wiedzę per se, ale również analizę danych i podejmowanie decyzji na tej podstawie. 5 lat później sytuacja wygląda już zupełnie inaczej. Watson, pracując dla Memorial Sloan Kettering, przetwarza ogromne ilości danych dotyczących zachorowań na nowotwory, zwiększając wydajność tego procesu o co najmniej 240% do roku 2013. Nie jest już więc tylko ciekawostką, ale zatrudnionym na pełny etat analitykiem danych i lekarzem w jednym. Z całym szacunkiem do etosu lekarza.
Pisząc „superkomputer”, zapewne tworzę w tobie nieświadomie obraz ogromnej maszyny zajmującej kilkanaście szaf serwerowych, wymagającej całego tabunu inżynierów, czuwających nad jej działaniem na trzy zmiany, przez całą dobę. Tak było na początku. Obecnie Watson w roli doktora jest serwerem, który mógłby się zmieścić w pudełku po pizzy. Superkomputer jest więc bardziej supertechnologią, niż supersprzętem. Liczy się to, co potrafi zrobić ze zmagazynowaną wiedzą, a nie tylko gdzie i jak ją magazynuje.
Watson do swojej sławy dochodził latami. Problemem było to, że komputer może posiadać ogromną wiedzę, ale niekoniecznie umieć ją wykorzystać samodzielnie lub we współpracy z człowiekiem. W 2011 roku wygrał specjalny odcinek teleturnieju Jeopardy! (w Polsce ten format znany był pod nazwą Vabanque), mierząc z dwójką najlepszych graczy w historii. Co najważniejsze: musiał radzić sobie sam, poruszając się w semantycznym świecie żywego człowieka. W opinii publicznej, której spora część uważała Watsona za bardziej skomplikowany kalkulator wokół którego IBM zrobił trochę szumu coś drgnęło.
Amerykański matematyk W. Edwards Deming powiedział kiedyś, że bez twardych danych jesteś jedynie kolejnym człowiekiem z opinią. Ale powiedział też: zły system zawsze pokona dobrego pracownika. I to jest jedno z wyzwań przed którymi stają inżynierowie AI. W pewnych aspektach, z dala od wspomnianej na początku taśmy produkcyjnej, to nie człowiek jest wąskim gardłem.
Mało tego – czym dużej nad tym myślimy, tym jest trudniej. W latach 80. XX wieku pojawiło się ciekawe stwierdzenie:
Stosunkowo łatwo sprawić, żeby komputery przejawiały umiejętności dorosłego człowieka w testach na inteligencję albo w grze w warcaby, ale jest trudne albo wręcz niemożliwe zaprogramowanie im umiejętności rocznego dziecka w percepcji i mobilności.
Hans Moravec: Mind Children, 1988. Harvard University Press
Dziś znamy to pod nazwą paradosku Moraveca. Innymi słowy – jak wyjaśnił Marvin Minsky, współautor teorii: „Generalnie, najmniej jesteśmy świadomi tych rzeczy, które nasze umysły robią najlepiej.” (…) „Jesteśmy bardziej świadomi prostych procesów, które nie działają dobrze, niż złożonych procesów, które działają bezbłędnie”. Nie potrafimy nauczyć robota, jak być człowiekiem, bo sami tego nie wiemy. Za to potrafimy zrobić z niego geniusza.
Dziś wydaje się to oczywistością, ale w latach 50. naukowcy zachęceni sukcesami pierwszych komputerów, byli przekonani, że w przeciągu 2-3 dekad uda im się stworzyć w pełni autonomicznego robota. Obraz tego widzimy w modnej wtedy literaturze sci-fi. Czy zatem jesteśmy zdolni do tego, aby oddać władzę w ręce mechanizmu tak niedoskonałego, skoro przepowiednie futurologów się nie sprawdziły?
Jeśli czytasz ten tekst, to oznacza, że twoje życie zawodowe zakończy się w przeciągu maksymalnie 100 lat (jeśli medycyna poczyni znaczące postępy w przedłużaniu ludzkiego życia), choć bardziej prawdopodobne, że będzie lat 50. W tym czasie zdążysz: przerzucić się na autonomiczne samochody, porozumiewać ze swoim komputerem bez użycia klawiatury czy innego interfejsu dotykowego i możliwe, że w większym czy mniejszym zakresie, przeprowadzisz się do świata cyfrowego – choć zapewne nie całkowicie. Oznacza to, że żyjesz w bardzo ciekawych czasach i aby przetrwać musisz się do nich trochę dostosować:
Czy zatem warto się jeszcze uczyć? Zależy czego i jak. Trzeba to robić z rozwagą. Albo będziesz wyspecjalizowanym zawodowo ekspertem w danej dziedzinie, i to pozwoli ci znaleźć się w niszy, niedostępnej za twojego życia zawodowego dla AI. Albo opracujesz w sobie katalog bardziej uniwersalnych kompetencji, który – póki co – z natury rzeczy nie jest dla tej sztucznej inteligencji dostępny. Jednocześnie będziesz gotowy na zmiany i wyzwania przez całe życie.
I przede wszystkim: przestań być nauczanym. Do niczego dobrego to nie prowadzi, bo tak serio, to nikt oprócz ciebie nie ma bladego pojęcia, co powinieneś umieć.