Diana Nowek zajmuje się zawodowo badaniem emocji. Opowiedziała mi pokrótce jak to robi i co ma znaczenie. Porozmawialiśmy też o technologii i sztuczniej inteligencji, która w badaniu emocji spisuje się przerażająco doskonale. Co nas czeka w świecie robotów, które będą o nas wiedziały wszystko? A może już wiedzą? Zapraszam do obejrzenia mojej rozmowy z Dianą lub do wysłuchania podcastu, który jest zapisem tej rozmowy.
Diana zajmuje się czytaniem emocji praktycznie od dziecka. Z rozmowy dowiecie się, jak to się stało, że młoda osoba zainteresowała się taką nietypową tematyką i jak wykorzystuje ją teraz. Co można wyczytać z twarzy i w jaki sposób to robić – sztuka naprawdę niełatwa, ale z pomocą przychodzi nam technologia. Najpierw taka klasyczna, ponadstuletnia – fotografia. Zatrzymanie czyjejś twarzy na stopklatce pozwala przyjrzeć się lepiej i nic nie umknie uważnemu oku obserwatora.
W ciągu lat okazało się, że komunikacja niewerbalna, to nie tylko mowa ciała i te wszystkie „piramidki”, postawa otwarta czy zamknięta, ale że mową ciała, czytaniem emocji zajmuje się też sztuczna inteligencja.
A co jeśli oko należy do robota? Jak sztuczna inteligencja czyta ludzi – o tym też rozmawialiśmy i, jak można wywnioskować z tytułu, radzi sobie nieźle. Z naszych twarzy można wyczytać zdecydowanie więcej, niż chcielibyśmy pokazać. O ile w normalnej rozmowie to nie jest duży problem, tak gdy do gry wchodzi robot, który potrafi analizować ogromne ilości danych, uczy się na schematach i ulepsza swoje algorytmy, to nagle zastanawiamy się czy odblokowywanie smartfona poprzez rozpoznawanie twarzy to taki dobry pomysł. Dobry, jeśli jesteś ogromną korporacją i przyda ci się parę milionów twarzy do uczenia swojej sztucznej inteligencji. W końcu komu przeszkadzało odblokowywanie odciskiem palca, które było lepsze, szybsze i skuteczniejsze?
Wersja do oglądania:
Wersja do słuchania: