Przejdź do Treści

Podcast techchatter
trzeci odcinek specjalny

Dlaczego nie powinniśmy stopować rozwoju sztucznej inteligencji (odcinek specjalny)

Opinii na temat możliwości i zagrożeń wprowadzania AI do naszego życia i pracy jest wiele i często są ze sobą sprzeczne. Jednak nowej fali cyfrowej rewolucji nie da się już zatrzymać. Procesy poznawcze maszyn wyposażonych w sztuczną inteligencję coraz bardziej zbliżają się do cech ludzkich. AI może zatem uwolnić pracowników od konieczności wykonywania powtarzalnych lub niebezpiecznych prac, ale może też nas w pewnym stopniu zastąpić. Może prowadzić za nas autonomiczny samochód, ale też przez to pozbawiać nas prywatności. Inwestycje w sztuczną inteligencję zwiększają wydajność przedsiębiorstw, ale też zwiększają ryzyko działalności korporacyjnych szpiegów.

Zapraszamy do słuchania!

W dzisiejszym odcinku edycji specjalnej TechChattera tworzonej wspólnie z serwisem Niebezpiecznik.pl odpowiadamy m.in. na pytania:

  • jak AI wspiera efektywność zarządzania projektami
  • jaką nową jakość biznes dostarczy dzięki AI
  • jakie zagrożenie niesie wprowadzenie scoringów w oparciu o sztuczną inteligencję
  • dlaczego AI nie zastąpi człowieka
  • jak zwiększyć zaufanie do rozwiązań modeli generatywnych

Eksperci Capgemini:

Kamil Świstowski – Od prawie 9 lat związany komercyjnie z branżą IT, obecnie pracuje jako zarządzający architekt oprogramowania w branży ubezpieczeniowej. Zajmuje się projektami na każdym etapie rozwoju od programowania po pracę analityka, od małych aplikacji CMS po oprogramowanie klasy enterprise. Zapalony uczestnik hackathonów poświęconych AI w firmie. Wspiera młode adeptki i adeptów sztuki IT jako mentor. Wierzy, że świat może być lepszy a innowacyjne technologie mogą w tym pomóc.

Prowadzący:

Jakub Orlik – Trener techniczny z Niebezpiecznik.pl, absolwent Wydziału Matematyki i Informatyki UAM w Poznaniu, mający na koncie prace dyplomowe o kryptologii bezpieczeństwie aplikacji webowych. Od lat realizuje się jako programista aplikacji internetowych. Fascynują go wszelakie nieoczywiste sposoby, w jakie technologia wpływa ludzkie decyzje, samopoczucie i bezpieczeństwo. Z własnej inicjatywy prowadził warsztaty z ochrony przed atakami cyfrowymi dla pracowników szkół oraz dla młodzieży. W trakcie ich prowadzenia odkrył w sobie uznawaną za niepowszechną wśród informatyków zdolność do czerpania przyjemności z prowadzenia przemówień publicznych. Łączy odkryte w sobie cechy i umiejętności aby pomóc obywatelom cyfrowego świata sprawiać, by technologia rozwiązywała więcej problemów, niż tworzy.

Linki do polecanych materiałów:

https://www.youtube.com/watch?v=d3LBSryucIc/

https://www.unesco.org/en/artificial-intelligence/recommendation-ethics

https://www.insuranceeurope.eu/publications/2608/artificial-intelligence-ai-in-the-insurance-sector/

https://medium.com/nerd-for-tech/an-brief-overview-of-some-ethical-ai-toolkits-712afe9f3b3a/

https://www.capgemini.com/about-us/who-we-are/our-values/our-ethical-culture/ethical-ai/

Więcej o pracy w Capgemini:
https://www.capgemini.com/pl-pl/kariera/

Jeśli odcinek Ci się spodobał, daj nam o tym znać wystawiając ocenę w Spotify lub Apple Podcasts.

Produkcja: Cleverhearted Showrunners

JAKUB ORLIK: Od kogo zależy, czy AI będzie nam służyć czy nas zniewoli? W rozmowie z Kamilem Świstowskim, zarządzającym architektem oprogramowania w branży ubezpieczeniowej i zapalonym uczestnikiem hakatonów poświęconych AI stawiamy hipotezę, że przyszłość AI jest w rękach każdego z nas. 
Cześć. Słuchasz drugiego sezonu podcastu TechChatter. Audycji Capgemini Polska, w której eksplorujemy świat technologii. Dołącz do rozmowy naszych ekspertów i ekspertek. Posłuchaj, co tworzymy tutaj w Polsce. Odkryj z nami projekty, które kształtują przyszłość i przekonaj się jak interesująca może być praca w sektorze IT. To co? Zaczynamy?
JAKUB ORLIK: Kamil, AI wydaje się zjadać biznes od środka a biznes zjada AI, więc wpływa to na wiele aspektów naszej pracy oraz usług, które biznes chce świadczyć. Jakbyś mógł zacząć naświetlić nam temat tego jak AI zmienia samą pracę nad projektami. Dużo już powiedzieliśmy w poprzednich odcinkach o programistach, ale są inne zawody i inne stanowiska, no które być może w przyszłości bez tego AI nie będą mogły się obejść.
KAMIL ŚWISTOWSKI: Tak. Faktycznie jest tak, że AI wchodzi pod strzechy tego biznesu i w pracy projektowej zaczyna być coraz szerzej wykorzystywane w kontekście poprawienia jakości i wydajności pracy. I to jest coś, co możemy zaobserwować już od dawna na przestrzeni historii, że zawsze automatyzacja i standaryzacja były czymś, co dawały nam duży boost do tego, co się aktualnie dzieje i jak wykonujemy naszą pracę. I faktycznie było już mówione o pracy deweloperów i ekspertów security. Ale AI może też wspomóc zupełnie inne obszary zwykłej pracy projektowej. Chociażby takie prozaiczne czynności jak podsumowywanie spotkań, tak? To jest jedna z rzeczy, takie szybkie minutes after meeting, żeby wysłać. Wystarczy wypunktować sobie tak naprawdę dzisiaj rzecz i całą ładną otoczkę do maila, który no powinien zachować pewną formę, bo znajdujemy się w profesjonalnym środowisku, może nam wygenerować sztuczna inteligencja. I tutaj praca programistów jest oczywiście takim bardzo hot topic, jeżeli chodzi o to, ale projekty to coś więcej niż tylko programiści. Oczywiście nie zastąpią całkowicie, według mnie, tego, co faktycznie robią ludzie w projektach. Sztuczne inteligencje, boty i tak dalej, ale najważniejszym ich celem jest nie zastępowanie, tylko wspomaganie tej pracy. Dla project managerów to jest na pewno automatyzacja zadań, które oni codziennie wykonują. To jest raportowanie właśnie, pisanie podsumowań i takich rzeczy. To jest bardzo taka monotonna i powtarzalna praca, gdzie nie ma sensu, żeby osoba, które ma pewne umiejętności, wiedzę i tak dalej, traciła czas na pisanie po prostu. Więc jeżeli coś można wygenerować o wiele szybciej niż tak samo ręcznie to pisać, no to to jest oszczędność czasu. I obecnie trendem w pracach takich projektowych IT jest praca w zespołach agilowych, zwinnych metodykach i tam ten czas jest bardzo ważnym faktorem. I jeżeli wykonywanie zadań na czas jest bardzo istotne, dlatego, że w takiej inkrementalnej pracy bardzo często sprawdza się, jak sobie radzi projekt w krótkich odstępach czasu. Te krótkie odstępy czasu mogą narzucać szybkie tempo pracy. I jeżeli można odciążyć tych pracowników wykonywaniem właśnie takich powtarzalnych zadań jakąś sztuczną inteligencją, gdzie oni wystarczy, że sprawdzą tak naprawdę potem wynik, czy on jest wystarczająco dobry, żeby go zaprezentować, no to wydaje mi się, że to jest bardzo pomocne do zwiększania naszej wydajności. A na chwilę obecną rynek IT ciągle jest nienasycony. Ekspertów brakuje. Ja zajmuję się głównie programowaniem i architekturą w branży ubezpieczeniowej w specyficznej technologii i na dziś dzień w Europie brakuje ekspertów. To jest, jeśli dobrze kojarzę, kilkanaście tysięcy ekspertów, nawet nie wiem, czy kilkanaście już zostało przekroczone, którzy są wycertyfikowani, żeby korzystać z tej technologii. I do nas przychodzą klienci i często po prostu nie ma wystarczająco ludzi, żeby wystartować, wystafować ten projekt, więc jeżeli my byśmy mogli zwiększyć naszą efektywność, to w samym projekcie IT już widać, że można by tą rewolucję popchnąć o wiele szybciej. 
JAKUB ORLIK: W ogóle zastanawia mnie, jak to się stało, że właśnie to generatywne AI teraz jest tak bardzo na topie i wydaje się, że generowanie tekstu, generowanie obrazków poszło na pierwszy plan. I zastanawia mnie, że bierzemy się za automatyzację prac, które są monotonne, ale wymagają jakichś kwalifikacji, nie? Nie każdy jest w stanie ładnie podsumować spotkanie. No trzeba wiedzieć o czym było to spotkanie, znać te osoby i tak dalej. Jakoś kontekst łapać. I zwykła osoba, że tak powiem, z łapanki z ulicy no musiałaby przynajmniej mieć jakieś wdrożenie. Ale są na przykład takie rzeczy, które są bardziej mechaniczne niż intelektualne, jak na przykład, nie wiem, hydraulik i dochodzi do takiego paradoksu, że automatyzujemy artystów zanim zautomatyzowaliśmy hydraulików. Ja myślę, że może dla bezpieczeństwa mojej kariery powinienem pójść na kurs hydraulictwa.
KAMIL ŚWISTOWSKI: Wiesz co? To jest faktycznie taka ciekawa obserwacja, bo pewne rzeczy da się po prostu zrobić łatwiej i nasza praca, która polega na klikaniu w komputer, jak to często słyszę, czym się zajmuję, no klikam w komputer tak naprawdę.
JAKUB ORLIK: Mama mówi znowu gra.
KAMIL ŚWISTOWSKI: Znowu gra, dokładnie. Znowu gram w tej pracy. Przyszedłem na owocowy piątek i gram w pracy. I to jest praca, którą wykonuję na oprogramowaniu, używając oprogramowania, tworząc oprogramowanie. I to jest takie miejsce, w którym inne oprogramowanie, czyli ta sztuczna inteligencja, czy inne algorytmy właśnie uczenia maszynowego czy jakiejś ekstrakcji danych, one naturalnie pasują do tego środowiska. Jeżeli chodzi o pracę hydraulika, no to przede wszystkim trzeba przemyśleć, co tam można zrobić i mam taki przykład. Zaraz o nim wspomnę, ale żeby rozpoznać problem, to jest jedna rzecz, ale potem, jak zmusić AI, żeby zastąpiła hydraulika to może mocne słowo, nie chcę tutaj anulować zawodu hydraulików, ale żeby faktycznie była w stanie wykonać jego pracę, no to tutaj musimy też pomyśleć troszeczkę o tym, że jest to praca wykonywana manualnie. Siłą mięśni, do tego potrzeba zręczności. No i być może roboty takie, jak produkowane przez Boston Dynamics, czy jakieś inne firmy, kiedyś będą w stanie robić takie rzeczy, ale na dziś dzień wydaje mi się, że łatwiej jest zrobić podsumowanie maila niż faktycznie dostarczyć maszynę, która będzie na tyle zręczna, żeby była w stanie zastąpić hydraulika. Więc faktycznie, do zabezpieczenia naszej kariery warto jest mieć, jak to się mówi, fach w ręku. Dosłownie w ręku teraz.
JAKUB ORLIK: Ale też może wspomagać pracę. Wyobrażam sobie, że kiedyś zapcha mi się toaleta i przyjdzie hydraulik, otwiera telefon i wpisuje do czat GPT zapchała się toaleta, co mam zrobić? [śmiech]
KAMIL ŚWISTOWSKI: Tak, ale widzisz, to jest ponownie nie rozwiązanie samego problemu, tylko to jest identyfikacja problemu. I do tego sztuczna inteligencja się nada, ale nadal hydraulik będzie musiał, albo ty będziesz musiał rozwiązać problem, który tam następuje. Ale faktycznie do wspomagania innych sztuczna inteligencja się nada bardzo. I jednym z pierwszych global data science challange, który robiliśmy, czyli takich hakatonów poświęconych usprawnianiu życia, ludzkości i społeczeństwa, robiliśmy sztuczną inteligencję, która była wpuszczana do rurociągów. To był robot, który na podstawie dźwięków sensorycznie zapisywał dane o tym, jak ten dźwięk się odbijał. Na podstawie tego była szacowana struktura po to, żeby móc wykrywać wcześniej potencjalne pęknięcia, albo gdzie struktura tych rur została osłabiona. I w taki sposób pracę hydraulika można by wnieść na kolejny poziom, tak naprawdę, i ponownie, wspomóc a nie zastąpić. Bo jednocześnie ktoś musiał to potem poprawić czy zidentyfikować, że w tym obszarze faktycznie, czasem nawet potwierdzić, czy to nie jest jakichś false positive, czy faktycznie tam było jakieś uszkodzenie. Ale było coś takiego robione. I to jest właśnie to, co kiedy się mówi o tym, bardzo popularne, takie, nie chcę powiedzieć populistyczne, ale takim chwytliwym tematem jest powiedzieć, czy AI zabierze nam pracę? Że AI zabierze nam pracę. I właśnie jeżeli traktować AI jako szansę na zastąpienie czegoś, nie jesteśmy jeszcze na tym etapie. Według mnie bardzo mało zawodów na dziś dzień sztuczne inteligencje, czy narzędzia, jakie mamy, dałoby się zastąpić. 
JAKUB ORLIK: Poza pisarzami tekstów pod SEO.
KAMIL ŚWISTOWSKI: Tak. Pisanie tekstów pod SEO. No tak, ale właśnie do tego takie narzędzia jak czat GPT, czy w ogóle te LLM-y, te modele, które są wytrenowane do generowanie tekstu, no to do tego są genialne. Faktycznie. Bo one całkowicie zastępują generowania mambo jambo ze słowami kluczowymi, tak? Bo pisanie tekstów pod SEO, tworzenie kolejnej osiemdziesiątej strony, która opisuje wszystko ze słowami kluczowymi, no tak, ta treść jest faktycznie prosta do zastąpienia. Tylko właśnie to jest jedna z tych rzeczy, czy jeżeli zajmujesz się pisaniem generycznych tekstów, w których ma być bełkot, byle by były słowa kluczowe, to czy to jest naprawdę ścieżka kariery, gdzie ktoś nie ma tego przemyślenia, że łatwo mnie zastąpić? Według mnie to nie jest praca, z którą powinno się wiązać takie bardzo długoterminowe plany. Nie chcę brzmieć bardzo kontrowersyjnie, ale myślę, że ludzie, którzy się tym zajmują powinni mieć świadomość tego, że narzędzia były dostępne już wcześniej. Czat GPT zrobił ogromną furor z, według mnie, z takich dług powodów. Pierwsze to jego uniwersalność, bo on jest naprawdę ogromnym modelem i pokazał to, że w takich uśrednionych tematach radzi sobie bardzo dobrze albo dość dobrze. Może gorzej niż specjalistyczne jakieś, ale jego uniwersalność jest tutaj atutem, a drugie, że został udostępniony ludziom a nie tylko biznesowi. To nie jest kolejny patent, który wylądował w szufladzie, albo gdzieś w jakimś laboratorium research and development center, gdzie ktoś sobie tam, jedna firma nad tym pracuje. To zostało udostępnione ludziom i ten wysyp narzędzi, który faktycznie są związane albo bazują na tego typu modelach, czy tego typu pracy zainspirował wielu ludzi właśnie tą swoją otwartością. Oni mieli szansę pokazać tą swoją kreatywność i być może dziś faktycznie generowanie tekstów można by zastąpić. Ale być może te osoby znając się na tym, to może one otworzą firmę, która będzie oferowała sasowe rozwiązanie do generowania takiego tekstu. Więc myślę, że to jest pewne przetasowanie. 
JAKUB ORLIK: Mam takie przeczucie też, że ludzie mogą nauczyć się rozpoznawać treści, które są generowane przez modele. Sam, jak już troszeczkę miałem do czynienia z czat GPT i każę mu wygenerować jakieś dłuższe wypowiedzi, to już czuję ten styl. Zawsze jest podzielone ładnie na trzy części i tak dalej. No i to po prostu widać, więc być może po prostu sztuczna inteligencja nie będzie miała szans z moją naturalną głupotą.
KAMIL ŚWISTOWSKI: Głupotą? Ja bym powiedział nazwijmy to mądrością. Faktycznie tak jest i ja też korzystając z czat GPT, bo korzystam czasami do generowania właśnie szczególnie treści takich tekstowych, faktycznie bardzo rzuca mi się w oczy pierwszy szczególnie paragraf, który on generuje. Kiedy ja proszę tutaj masz jakieś punkty, wygeneruj mi maila, albo jakąś wiadomość, która zawrze i lepiej rozwinie i tak dalej, to on mówi, okej, więc wiadomość, która zawrze i rozwinie punkty takie i takie. Więc jeżeli ktoś to naprawdę będzie po prostu kopiował, albo to będzie automat, niech to będzie po API, niech to będzie automat, który to będzie kopiował, to faktycznie nie trzeba będzie żadnych specjalistycznych narzędzi. Wystarczą oczy do tego, żeby to rozpoznać.
JAKUB ORLIK: Jakby mnie przeraża to, bo ja czasem sam zachowuję się jak robot i zaczynam maile zawsze w ten sam sposób, albo witam się z ludźmi tak samo, aż boję się, że zaczną mnie podejrzewać, że…
KAMIL ŚWISTOWSKI: Też pracujesz w korporacji? [śmiech]
JAKUB ORLIK: No cóż, w jednej tak. Ale to jest bardziej, ja mam schematyczny taki po prostu sposób działania i teraz boję się, że mnie zaczną podejrzewać o to, że outsourcuje część swojej tożsamości do czat GPT.
KAMIL ŚWISTOWSKI: To jest ciekawe, nie? Bo wcześniej był taki chyba głośny przypadek, kiedy pracownik ze Stanów Zjednoczonych z części swojej pensji outsourcował swoją pracę do pracownika w Indiach prawdopodobnie i nie poinformował swojego pracodawcy o tym i został dosyć mocno ukarany za to, że gdzieś tam sekrety firmy wypuszczał. Ale taki outsourcing od dawna był, więc to jaką masz pewność, że maile twojego menadżera są napisane przez niego dzisiaj albo były przed tym? No nie wiesz. Równie dobrze to mogłaby być sekretarka jego. Dziś te miejsce być może zastąpi czat GPT. Tylko pytanie, czy będzie w tym lepszy, bo jeżeli nie, to wydaje mi się, że nie.
JAKUB ORLIK: Tak. No w Internecie nikt nie wie, że jesteś psem, który po prostu pyta czat GPT o to jak odpisać na maile.
KAMIL ŚWISTOWSKI: Dokładnie tak. 
JAKUB ORLIK: A jakie nowe narzędzia biznes może oferować dzięki AI? Albo jaką nową jakość jest w stanie dostarczać?
KAMIL ŚWISTOWSKI: O, i to jest na przykład bardzo interesujące pytanie dla mnie szczególnie, bo to jest coś, czym ja się zajmuję na co dzień w mojej pracy. W tym roku miałem okazję być na InShortach, konferencji w Londynie. Byliśmy tam, żeby dowiedzieć się, co się dzieje w branży, jakie nowe rozwiązania są. I wśród wszystkich informacji tak naprawdę dotyczących start-upów, nowych firm i rozwiązań oferowanych dla ubezpieczalni, były takie zdominowane przez AI. To było jak base word, które padało wszędzie. Tak jak jakiś czas temu wszystko miało być n a blockchainie, potem miało być wszystko w metaversie, dziś wszystko ma AI-owe rozwiązania. Przy czym to, co tam zobaczyłem naprawdę w pewnym sensie zapierało dech w piersiach, a w innym troszeczkę przerażało. Było nawet pytanie, które zadałem, czy oddając tak wiele informacji, których firmy potrzebują, żeby to działało, jako użytkownicy nie zgadzamy się na dobrowolną inwigilację w zamian za coś. To było w kontekście inteligentnego domu. Wyobraź sobie istnieje system zdalnie sterowany, zdalnie scentralizowana sztuczna inteligencja, która na przykład, do której masz podłączony swój oczyszczacz powietrza, która jest w stanie rozpoznać, czy żyjesz w dobrych warunkach. Bo jeżeli nie, to zostaniesz na przykład niżej opunktowany przez ubezpieczyciela, ale w zamian za to dostajesz turbo zniżkę. To są rozwiązania, o których realnie się mówi. Oczywiście tutaj nie ten konkretny przypadek, ale na przykład są rzeczy, które już dziś są wrzucane i istnieją, to są gotowe rozwiązania, gotowe do wdrożenia. Punktowanie twojej jazdy w zamian za zniżki. I są ludzie, którzy będą chcieli z tego korzystać. I to są takie realne rozwiązania i oczywiście analiza tego, cały scoring, który będzie oprowadzany, jest robiony na podstawie AI. I są takie narzędzia, które można by naprawdę ciekawie rozwijać idąc w tę stronę, tylko one wymagają danych. I to jest taki problem, że te firmy muszą dać coś w zamian, żeby ludzie chcieli dostarczyć im te dane. Wiadomo, jeśli dostajesz coś za darmo, to ty jesteś produktem i takie firmy jak właściciele sieci społecznościowych bardzo dużo zyskują na tym, tak? Nie trzeba płacić na popularne sieci społecznościowe, bo to nasze preferencje, my generujemy dla nich dane. I tutaj też właśnie w tej branży ubezpieczeniowej to nie jest tak, że utracimy wszystko. Tak przynajmniej było to argumentowane, że narzędzia, które oni tworzą, tworzą po to, żeby usprawnić pracę ubezpieczycieli i zwiększyć jakość dostarczanych usług dla konsumentów. I to było bardzo mocno podkreślane zarówno przez tych, którzy to tworzyli, jak i przez ubezpieczalnie, które były na tym, że to nie jest tak, że tym firmom zależy po prostu na dziko kapitalistycznej maksymalizacji zysków. Oczywiście ubezpieczalnie to jest branża niskiego zaufania. Ludzie niespecjalnie ufają ubezpieczycielom, to było poruszane na panelach, o tym, że to są pieniądze, które wkładasz, których nigdy nie odzyskasz, bo będą robić wszystko, żebyś ich nie odzyskał. Tylko, że to nie do końca tak, ludzie, którzy tam pracują nie do końca tak to widzą. Jest po prostu bardzo dużo ludzi, którzy próbuje wykorzystać sytuację i wtedy oszukują innych, od których faktycznie mogliby dostać te pieniądze. Zarówno innych konsumentów, jak i ubezpieczalni. I to jest coś, co oni próbują wyeliminować. To się źle odbija, bo wiadomo, jeżeli zostanie ci odmówiona wypłata świadczenia, jest problem.
JAKUB ORLIK: To jest captcha, nie? Musisz udowadniać, że jesteś człowiekiem, bo jest wiele, które…
KAMIL ŚWISTOWSKI: Tak. Udowodnij, że jesteś uczciwy, nie? Z założenia wszyscy są nieuczciwi.
JAKUB ORLIK: Żeby udowodnić, że jesteś uczciwy kliknij kwadraciki, na których jest szkoda w twoim samochodzie.
KAMIL ŚWISTOWSKI Tak, dokładnie tak, która jest zgodna z regulaminem. [śmiech] No tak, ale na przykład jedne z takich rozwiązań na których, może bez jakichś super technicznych szczegółów, ale co nieco o nim wiem, jest analiza danych z czarnej skrzynki samochodu. Dziś samochody są wypakowane elektroniką i o ile nie dziwi to w przypadku na przykład samolotów, bo potem te dane są wykorzystywane do przewidywania, kiedy serwisować, czy co się wydarzyło w przypadku jakiejś wielkiej katastrofy. No więc firma, na dziś dzień mogłaby odmówić ci na przykład wypłacenia szkody albo rekompensaty za szkodę, jeżeli wykorzystywałeś źle swój samochód i przez to on źle działał. Jak można wykorzystywać źle samochód? No powiedzmy samochód wypadł z zakrętu, bo nie zadziałał jakiś automatyczny system wspomagania albo coś tego typu. I ty możesz chcieć iść do ubezpieczyciela i powiedzieć mu, ej, to nie zadziałało, miało działać, to była awaria, ja nic nie zrobiłem. A oni wtedy mogą ci powiedzieć, no ale zgodnie z danymi z naszej czarnej skrzynki twój samochód może przewozić tyle kilogramów, a miałeś więcej i przez to wypadłeś z zakrętu. No i teraz pytanie, kto ma rację, nie? Wiadomo, że użytkownik, który miał wypadek chce dostać z powrotem pieniądze, tak? Ale kiedy ostatni raz monitorowałeś, jaki ciężar przewozisz swoim samochodem i czy w ogóle wiesz jaką masz maksymalną bezpieczną po prostu wartość tego, ile możesz przewozić? To są rzeczy, o których ludzie nie wiedzą. Pewne testy bezpieczeństwa, które były wykonane, tak?, bo możemy sobie mówić, że ten samochód jest super bezpiecznym samochodem i on był sprawdzany w pewnych konkretnych warunkach, na konkretnych stałych, co się stanie, jeżeli ich nie ma. No to tego nie mogą zagwarantować, że jasne, on będzie zawsze tak samo się zachowywał. Nieważne ile tam napakujesz, tak? 
JAKUB ORLIK: Opowiadałeś także o tym scoringu i widzę tutaj pewne ryzyko, no bo w momencie, w którym to faktycznie robi jakiś model uczony maszynowo, jakaś sztuczna inteligencja, no to jest ta niewyzbywalna nieprzewidywalność. I wyobrażam sobie taką sytuację, w której ustalane jest, że no, będziesz skorowany za pomocą takiego i takiego modelu. I komuś się udaje tak odkryć, że akurat jest tak ten model, że jak się go pogilga w taki sposób, że jak codziennie rano o 6 na parkingu zrobię kilka takich zakrętów, a potem wyłączę silnik piętnaście razy, to mój scoring w ogóle jest taki świetny, że, bo oni mi płacą za to ubezpieczenie, a nie ja im, nie? 
KAMIL ŚWISTOWSKI: Mogą być takie problemy. I na przykład tak jest sprawdzane, żeby zobaczyć to, jak jeździsz. Czy jesteś dobrym kierowcą. Dwa rozwiązania, które dzisiaj są dostępne, trasy poniżej jakiegoś przedziału czasowego lub odległości nie są brane pod uwagę do twojego scoringu, bo to jest założenie, że a to jeździsz po parkingu, no to pewnie będziesz jechał wolno, więc będzie ci obniżało scoring i tak dalej. Więc tam też są takie smaczki i tam też jest pewnie narzucony jakiś kontekst. Czy będzie można to oszukać? Wiesz, co, wydaje mi się, że to będzie trudne.
JAKUB ORLIK: Czekaj. Ale to jest aplikacja, którą po prostu i ta aplikacja mierzy akcelerometrem, tak?
KAMIL ŚWISTOWSKI: Tak.
JAKUB ORLIK: Czyli na przykład jak bym przypadkowo ją włączył, jakbym był na kolejce górskiej, to mój scoring by spadł drastycznie.
KAMIL ŚWISTOWSKI: Mogłoby tak być. Tak, mogłoby tak być. To jest rozwiązane, to, o którym myślałem akurat, właśnie tak działa, że to jest w twojej aplikacji. Może tam masz nawigację do tego, że możesz korzystać sobie normalnie z nawigacji, ale w trakcie jazdy faktycznie wykorzystuje czujniki twojego telefonu. To jest oczywiście sprzedane marketingowo jako wielka rewolucja. Nie musisz nic więcej mieć. Ale mogłoby być też takie rozwiązania w niedalekiej przyszłości, które będą w pełni wykorzystywały możliwości samego samochodu i tej elektroniki, która jest w nim upakowana. No jeżeli pomyślimy o samym samochodach autonomicznych. Przecież tam jest tak dużo czujników. One tylko czekają na to, żeby być wykorzystane. To jest tyle danych, które można wykorzystać do oceny jazdy chociażby. I to musi się dziać w tym modelu, który steruje autonomicznym pojazdem tak czy siak, bo samochód powinien się poruszać zgodnie z pewnymi zasadami zachowując bezpieczeństwo, więc on to robi. Tylko te dane nie są wykorzystywane przez biznes. 
JAKUB ORLIK: Tak, tylko czy ta aplikacja czy samochód, no to prędzej czy później musiałaby jakoś wysłać te dane do jakiegoś scentralizowanego punktu, do ubezpieczyciela i tak dalej.
KAMIL ŚWISTOWSKI: Tak i to tam cała kalkulacja tego scoringu się odbywa. 
JAKUB ORLIK: Jestem w czapeczce niebezpiecznika bardzo na uszy naciągniętej. No to teraz sobie wyobrażam jak byśmy mogli na przykład przechwycić ruch tej aplikacji, nie? i codziennie wysyłać jakąś taką nagranie delikatnie modyfikowanej tylko trasy, że jechałem bardzo ładnie i że nie za szybko. Nigdzie nie łamałem prędkości, żeby tą sobie średnią obniżyć. Nawet jak ja w ogóle nie wsiadałem do samochodu. No bo dla nich to jest po prostu ruch http, nie? 
KAMIL ŚWISTOWSKI: Tak.
JAKUB ORLIK: Już po prostu słyszę, jak być może ktoś ze słuchaczy albo mówi blockchain, nie?
KAMIL ŚWISTOWSKI: Dokładnie tak. 
JAKUB ORLIK: Byłem na zbyt dużej ilości konferencji blockchainowych i już mam takiego małego blockchainowca z tyłu głowy albo na ramieniu. Więc tak, to jest po prostu taka refleksja nad tym, że w momencie, w którym to są cyfrowe narzędzia, no to cały ten problem z tym, że w internecie nikt nie wie, że jesteś psem albo skryptem w baszu, też musi byc pod uwagę.Czy widziałeś jakieś sposoby na to, jak to zaadresować? No bo włączanie sztucznej inteligencji, no włącza więcej komputerów, więcej czujników i także naraża nas na tego typu manipulację?
KAMIL ŚWISTOWSKI: Wiesz,co? Takiego rozwiązania technicznie nie widziałem na oczy. Takimi rzeczami nikt się nie chciał chwalić jak obejść ich zabezpieczenia. Z takich rzeczy górnolotnych jak oni opowiadają o tym, no to tutaj wychodzi bardzo dużo tego, jak faktycznie trzeba to przetestować. I oni mają procesy całe, które sprawdzają tego typu rzeczy. Na pewno to jest szyfrowanie i kryptografia tutaj, myślę, wchodzi w grę, jakieś aktualizacje do tych samochodów autonomicznych względnie często wychodzą, więc zakładam, że jakaś częsta rotacja kluczy musi się tutaj odbywać, jakichś certyfikatów. Może jakieś podwójne sprawdzanie tożsamości, czy nie ma jakiegoś man in the middle, czy faktycznie osoba, która wysyła te dane i jest autoryzowana do tego. No ale to wszystko są faktycznie rozwiązania takie czysto, no które już dziś są też łamane w taki sposób, więc tutaj pod względem bezpieczeństwa, to jest zawsze wyścig. Na każde nowe narzędzie do łamania pracuje grupa szlachetnych osób, która próbuje zabezpieczyć przed włamaniem.
JAKUB ORLIK: I po obydwu stronach barykady wspomaga swoją pracę AI.
KAMIL ŚWISTOWSKI: Dokładnie, tak. Tylko właśnie teraz co, jeżeli z jakichś punktów etycznych, biznesowych, strategii firmy, jedna ze stron nie będzie tego robiła? No więc umówmy się, jeżeli któraś ze stron miałaby nie korzystać, bo etyka, czy strategia firmy, to byliby ci dobrzy. Ci źli będą korzystać, nawet jeżeli to będzie absolutnie zakazane. prawdopodobnie jeżeli to będzie użyteczne, to oni i tak z tego skorzystają, więc wydaje mi się, że tutaj mogę od razu powiedzieć, że nie zgadzam się z tym, żeby zabronić prac nad AI, bo to oznacza, że tylko ludzie, którzy nie respektują takich rzeczy będą z niej korzystać tak czy siak. 
JAKUB ORLIK: Czyli nie wtórujesz apelowi szefa Open AI, żeby wstrzymać na ileś lat rozwój AI?
KAMIL ŚWISTOWSKI: Nie. W żadnym wypadku nie, bo jeżeli mógłbym zacytować Stanisława Lema z wywiadu, który przeprowadzony był w 76 roku, on mówi o tym, że tak zwany postęp ma to do siebie, że jeśli go nie kwalifikować jakościowo, że jak się coś zaczyna, jeżeli podmiotem działalności jest ludzkość, to się nie zdarzy na pewno, żeby to zostało opuszczone i wszyscy zawołali ach nie, to bardzo groźne i niebezpieczne. Nie będziemy się tym więcej zajmować. Można się zaklinać i przysięgać niezliczoną ilość razy, że nie będziemy, nie będziemy i nie będziemy, a w takiej lub innej formie czy postaci po jakimś krótszym lub dłuższym czasie rzecz taka będzie kontynuowana. I wydaje mi się, że to jest coś, co na przestrzeni wieków sprawdziło się już tak wiele razy, że nie jest to rozsądne powiedzieć nie, nie róbmy tego. Faktem jest, że ludzie mają wpływ na globalne ocieplenie, na klimat, na nasze środowisko. Jak dziś chcemy zmusić Chiny do tego, żeby respektowały nasze normy, które w Unii Europejskiej stworzyliśmy? Oczywiście nie uważam, żeby to było złe, żeby ich nie tworzyć. Myślę, że podobna sytuacja będzie z AI czy jakimkolwiek innym technologicznym rozwiązaniem, jeżeli ono daje jakąkolwiek przewagę, to gdzieś ktoś będzie z niego korzystał. I teraz pytanie, my możemy powiedzieć my tego nie robimy albo róbmy to w cywilizowany i etyczny sposób. I w Capgemini przywiązujemy bardzo ważną taką uwagę do tych wartości, które firm ma. Tak jak na przykład do równości i różnorodności. Nie ma sensu, żeby ograniczać przez jakieś takie stereotypowe myślenie, kto może pracować w IT, a kto nie może. I jednym z takich zasad, które grupa Capgemini stosuje jest to, że nie współpracujemy bezpośrednio z firmami, które w jawny sposób działają przeciwko naszym wartościom. I na podobnej zasadzie odpowiedzialny biznes powinien wykluczać z rynku w sposób naturalny odcinając się od takich złych praktyk. No bo co innego możemy zrobić? Nie mamy żadnej możliwości, żeby narzucić całemu światu naszych zasad. Naszych, jako ludzi stojących po stronie barykady róbmy AI, ale róbmy to etycznie. Nie będziemy w stanie nad tym zapanować. Jedyne co możemy zrobić, to jest to, czego nie uczy się ludzi,  nie mówi się o tym wystarczająco dużo, bo to jest niedobre dla konsumpcjonizmu. To jest decydowanie portfelem. Oczywiście w przypadku dużych firm to chodzi o zupełnie inną skalę, ale nadal to jest nasz świadomy wybór. Czasami być może lepiej jest wziąć inne rozwiązanie i dopasować się do niego, czy nawet gorsze niech to będzie rozwiązanie, ale niech to będzie rozwiązanie etyczne. I tutaj mógłbym wrócić na chwilę do historii naszej, jako li. Tyle, że na samym początku, kiedy nie była w żaden sposób uregulowana i decyzje, te drivery, które przyświecały, były troszeczkę nie do końca, może tak, były zaśmiecone starym podejściem takim, w którym jeszcze niektórzy ludzie nie wyleczyli się z tego, że niewolnictwo zostało im zabrane, że nie mogli już tak traktować ludzi i uważali część ludzi za gorszy sort z różnych tam, co tam akurat im odpowiadało. I przez to cierpieli ludzie. I jednocześnie poprawiając średni komfort życia przeciętnego człowieka była masa ludzi, która po prostu cierpiała z tego powodu. I wydaje mi się, że jesteśmy w podobnej sytuacji. Jasne, niektórzy pewnie w jakimś czasie stracą pracę. Będą musieli się przebranżowić. Będą musieli nauczyć się wykorzystywać te narzędzia, które są im dane. Ale jeżeli znaczna część społeczeństwa przez to będzie miała lepszej jakości usługi, ich komfort życia się poprawi, to będzie według mnie bardzo dobry krok. Tylko musimy nauczyć się na błędach przeszłości i to jest apel do nas, jako ludzi ogólnie. Patrzmy w to, co się wydarzyło, bo to są analogiczne sytuacje. Nie możemy pozwolić na to, żeby to dzika AI była rozwijana tak, jak się komu podoba. Przez to, że właśnie w pewnym momencie może zaszkodzić nam bardziej.
JAKUB ORLIK: I co chciałbyś, żeby typowy Kowalski zrozumiał o AI i o etycznych zagadnieniach z tym związanym?
KAMIL ŚWISTOWSKI: Przede wszystkim to, że to nie jest żadnego rodzaju magia i to nie jest autonomiczna jednostka myśląca. Chciałbym, żeby zrozumiał na podstawowym takim technologicznie pojęciu, jak to działa, że to jest obliczenia. To jest statystyka, to jest matematyka, z której coś wynika. Bo to pozwoli trochę zdemistyfikować to właśnie, że na temat samoświadomości AI, czy ja rozmawiam z botem, czy to jest faktycznie już jakaś istota myśląca. Nie, wiemy, że to nie jest istota myśląca. To nie jest istotna. To jest kalkulator. Świetny, mega skomplikowany, ale nadal kalkulator. Więc przede wszystkim zrozumienie tego wydaje mi się, że troszeczkę zabierze strach przed tym. I jeżeli nie będzie strachu, będzie pole do tego, żeby rozpocząć taką poprawną dyskusję. Co chciałbym odnośnie etyki, to żeby ludzie zrozumieli, jak wiele zależy od zestawu danych, które mamy i że te narzędzia nie są nieomylne. Bo wszystko zależy od tego, jakie dane zostały dostarczone. Jednym z takich problemów dostarczania danych, to jest ten bias, błąd, który może zostać wprowadzony, nawet nieumyślnie, przez to, że zastosował na przykład wybiórcze dane. Chociażby można by to zobaczyć w danych medycznych. Nie chciałbym być leczony tak, jak na przykład ludzie, którzy mają jakąś chorobę genetyczną, na przykład, nie wiem, muszą unikać jakiegoś składnika. To nie aplikuje się na mój przypadek w takim wypadku, prawda? No i teraz, co zrobić? No trzeba zapewnić, żeby te dane były odpowiednio duże, żeby ten zbiór danych był odpowiednio zróżnicowany. A i tak to, co wypluje sieć neuronowa, czy jakiś inny algorytm machine-learningowy nie powinno być traktowane jako wyrocznia. I właśnie dlatego uważam, że jeżeli zrozumiemy to, to zrozumiemy, że pracy ludzi nie da się zastąpić. Bo jest taki człowiek motywator, project manager, czy tam osoba, która zarządza, doradza firmom, Simon Sinek, który opowiadał o tym, jak pracuję w armii w Stanach. Czyli rozmawiał z ludźmi z armii w oddziale Siles, jednym z najbardziej zdyscyplinowanych, najefektywniejszych komandosów. Można tak to nazwać. Specjalistycznych oddziałów armii amerykańskiej, jak oni tam pracują. I oni oceniając ludzi doszli do takiego wniosku, że na jednej stronie mają performance a na drugiej zaufanie. I im wyszło, że, oczywiście nikt nie chce zatrudniać ludzi, którzy mają słabą wydajność i słabe zaufanie. No to jest oczywiste, że takich ludzi nikt nie chce. Idealną sytuacją są ludzie, którzy mają super wydajność i super zaufanie, ale ich jest mało. I co faktycznie z tego wyszło to to, że oni odrzucają całkowicie ludzi, którzy cechują się świetną wydajnością, wysokim performancem, ale niskim faktorem zaufania. Dlatego, że to są materiały na toksycznych liderów albo toksycznych członków zespołu i wolą wziąć człowieka, który jest low performerem, ale ma się do niego zaufanie. I jeżeli przełożyć to na ten AI, to musimy pamiętać, że to jest, może być ekstra, jeżeli chodzi o wydajność. Oczywiście tempo szukania moje w encyklopedii a czat GPT, no będzie nieporównywalne. To ja mógłbym od razu nawet nie podchodzić do tego, nie? Ale jeżeli na to sprawdziłem i ja się podpisuję pod tym nazwiskiem, to ja jestem za to odpowiedzialny. Model nie będzie za nic odpowiedzialny. I to zaufanie, wiedząc dzisiaj, że mamy właśnie ten problem z danymi, bo dane nie są otwarte, nie są dostępne, nikt nie przegląda tych danych w taki sposób. To często są biznesowo przyspieszone rzeczy, bo musi być zrobione i tak dalej, więc te dane mogą zawierać jakiś w sobie błąd, który będzie rzutował bardzo mocno na wynik. I to sprawia, że te modele, te narzędzia, nawet myślę, że w dłuższym odstępie czasu, mimo całego tego tempa ich ewolucji, nadal nie będą dawały takiej gwarancji, jak ostatecznie potwierdzenie przez człowieka specjalisty. 
JAKUB ORLIK: A co autorzy modeli językowych albo rozwiązań opartych o takie modele mogą, twoim zdaniem, zrobić, żeby to zaufanie do siebie zwiększyć wśród użytkowników?
KAMIL ŚWISTOWSKI: Do siebie> Czy do modeli samych?
JAKUB ORLIK: Jest na przykład firma, która wdraża rozwiązania oparte o duże modele językowe. I zależy im, żeby użytkownicy ufali temu rozwiązaniu.
KAMIL ŚWISTOWSKI: Okej. To na dziś dzień, co bym powiedział, co byłoby takie naprawdę fajne, to byłoby bardzo jasne zdefiniowanie, co i kto za co odpowiada. Bo kwestia odpowiedzialności za te wyniki jest dzisiaj, no to jest ziemia nieznana. Kto odpowiada za to, że model popełnił błąd? Programista? Osoba, która wyczyściła lub nie wyczyściła danych? Firma, bo to firma zrobiła? Czy osoba, która zasugerowała się tymi danymi? Więc myślę, że co można zrobić, to jest przedstawić, to jest nasz zespół ekspercki, który nad tym pracował. Wtedy wiemy, kto jest, jaki miał „bajas”, czego możemy się po nim spodziewać. Oczywiście nie każdy będzie to analizował, ale jest to wiadome w przypadku, w którym dojdzie do konfliktu, bo kiedy nam jest potrzebne to zaufanie? Kiedy jest problem tak naprawdę, nie? Więc przestawienie zespołu eksperckiego, wydaje mi się, że to. Kto nad tym pracował. Wzięcie odpowiedzialności po prostu za efekty tego. Nie umywanie rąk, bo jest bardzo łatwo powiedzieć my tylko dostarczamy model. My nie mówiliśmy, żeby z niego korzystać. Oczywiście oni chcą to sprzedać, ale czy naprawdę firma, firma analizująca dane medyczne, jeżeli ona ci wrzuci skoring, zalecenie, lek ci zasugeruje i coś ci się stanie, czy ona weźmie za to odpowiedzialność? No na dzisiejszy stan prawny chyba nie dałoby się tego w taki sposób wymusić, więc wszystko zależy od regulaminy tej usługi. No i wydaje mi się, że to jest pole stworzyć łatwy, prosty, przejrzysty system, który pozwoli budować to zaufanie i brać odpowiedzialność, bo nawet, jeżeli coś złego się wydarzy, to umycie rąk podważa to. 
JAKUB ORLIK: Tak. No tylko jesteśmy w takiej sytuacji, gdzie firmy, które tworzą takie rozwiązania, no nie jest w ich interesie specjalnie, żeby to zaufanie tworzyć. No poza tym, że być może, żeby konsumenci byli bardziej świadomi, myślę, że ta świadomość będzie się zwiększała z czasem, no to to zaufanie będzie czymś krytycznym przy podejmowaniu wyborów. Tylko teraz jesteśmy, w moim odczuciu, w takiej sytuacji, w której wszyscy chcą wdrażać AI, ale nad tym ryzykiem i nad tą odpowiedzialnością w ogóle nie myślą. Więc teraz jest no taka gorączka złota, w której…
KAMIL ŚWISTOWSKI: Komuś się uda, komuś się nie uda. 
JAKUB ORLIK: Tak i można zrobić sobie wielki start-up, który jest właściwie jednym promptem do chat GPT.
KAMIL ŚWISTOWSKI: Tak. Faktycznie. I to jest ponownie problem tego, że prawo czy nasza etyka nie nadąża za technologią. I technologia się rozwija o wiele, wiele szybciej niż inne te dziedziny. Dobrze, że powstają takie rzeczy, jak ten AI Act, które w pewien sposób będą to regulowały, byle by nie docisnęły za mocno, bo wtedy stłamszą innowacyjność. Ale no na chwilę obecną tak faktycznie, jest to taki dziki Zachód troszeczkę i tylko ponownie, co możemy jako my, konsumenci tych usług, zrobić na dziś dzień, to jest wybrać, czy chcemy korzystać z tego rozwiązania. Jeżeli to jest szemrana firma, która pojawiła się znikąd, nikt nigdy wcześniej o tym nie słyszał, jeżeli oferują jakieś rewolucyjne, marketingowe bełkot, to naprawdę żyjemy już w takich czasach, gdzie jesteśmy zalewani takimi treściami. I uważam, że już przeciętny użytkownik powinien mieć taką świadomość, żeby mu się zaświeciła lampka. Jeżeli nie ma, to własnie to jest nasza misja, ludzi technicznych, żeby zbudować tą świadomość wśród innych. Tak jak eksperci żywieniowi budują świadomość ludzi tego, co się powinno jeść i tak dalej, to wiesz, to też nie jest w ich biznesowym takim kontekście patrząc dla nich dobre, jeżeli do dietetyków przestaną przychodzić osoby, bo zaczną się dobrze odżywiać, nie? No ale ci ludzie nie zachęcają innych i wydaje mi się, że to jest właśnie ta etyka, którą oni mają. Ich praca polega nie tylko na tym, żeby to dostarczyć. Ich praca polega na tym, żeby uświadomić, jak też z tego w odpowiedni sposób korzystać. I wydaje mi się, że to jest coś, co możemy na dziś dzień zrobić, unikać takich rozwiązań, jeżeli nie jesteśmy ich pewni. Ja mam znajomego, z którym rozmawiałem ostatnio, to jest mój fryzjer. Opowiadał mi o tym, jak zrezygnował z usług jednego banku, bo wprowadziły właśnie całkowicie zautomatyzowanego asystenta. I jego problemem, na początku wydawało mu się, że on nienawidzi AI, ale jak zaczęliśmy drążyć, ale dlaczego, ale dlaczego, ale dlaczego, do pewnego momentu, wiesz, ja tam długo siedziałem, jak mnie obcinał, więc miałem czas popytać. Doszliśmy do tego, że tak naprawdę w jego przypadku najbardziej martwiło go to, że oni będą się uczyć na jego odpowiedziach, że ten produkt jest niegotowy, ten asystent i on traci czas na nim. Bo do niego mówi, a on nie rozumie, on chce coś zupełnie innego i on za każdym razem prosił o to, żeby przełączyć do zwykłego człowieka. Więc ta osoba na sam koniec, on powiedział mi, że on przenosi wszystkie swoje rzeczy i rezygnuje z tego, bo on nie chce korzystać z tego. I to jest według mnie wybór, bo jeżeli oni teraz zrobią mu ankietę, a dlaczego pan odszedł? I on im napiszę, bo wasz bot nie działa, bo nie podoba mi się, ale to argumenty jakieś logiczne, to wtedy biznes może się zastanowić, nie? Bo kiedy biznes zobaczy, że coś jest nie halo? Że coś nie działa dobrze? Że coś jest nie w porządku?
JAKUB ORLIK: Jak słupki idą w dół. 
O; Kiedy z KPA się przestaną zgadzać. Dokładnie tak. No taka jest prawda. Cała nasza natura polega na wzroście. Wszystko, co nas otacza polega na wzroście. Można ponownie zrzucić winę na piekielny kapitalizm, że firmy dążą do wzrostu, ale czy socjalistyczny kraj, w którym nie idą za kapitalizmem, w którymś momencie swojego istnienia ktoś powiedział nie, nasz rozwój gospodarczy już jest spoko na tym poziomie, nie chcemy rosnąć? No nie. Czy jeżeli posadzimy roślinę, to ona uzna, a nie, to już jest taka fajna wysokość, ja już nie będę rosnąć? Czy ludzie przestaną rozwijać się tylko dlatego, że w pewnym momencie uznają, a w sumie mi się tak podoba? No nie. Cała nasza natura polega na wzroście. 
JAKUB ORLIK: A nie byłoby fajnie, gdyby na tym nie polegała? Czasem mam wrażenie, że teraz przychodzą takie nowe, przychodzą technologie, które nie są odpowiedzią na konkretny problem, tylko mogą tworzyć więcej problemów. 
KAMIL ŚWISTOWSKI: Tak. Mogą tworzyć więcej problemów, ale też dużo potencjału nowego, bo to jest właśnie przetasowanie, nie? Bo ja sobie tak myślę czasami, czy wdrażanie kolejnych nowych technologii faktycznie nie powoduje więcej problemów? Tylko to są technologie, które często nawet, jeżeli w pierwszej wersji nie są rewolucyjne i być może nie były jakieś świetne, to gdzieś tam za jakiś czas po jakiejś linii ewolucji, ponownie wracając do natury, bo tak to działa, po pewnym czasie ewolucje tego rozwiązania ono naprawdę zacznie być przydatne dla nas. I tutaj, wiesz, mam taką anegdotkę, kiedyś byłem na konferencji dotyczącej technologii technicznych. Ja jestem wielkim fanem kosmosu, więc dotyczących technologii kosmicznych. I tam opowiadano mi taką, opowiadano wszystkim prelegentom, taką historię przez ówczesnego szefa agencji kosmicznej polskiej, że lata temu, kiedy konstruowano aparat do sądy i został zminiaturyzowany, to ten pomysł odrzucono. Dlatego, że powiedziano a po co komu taki mały aparat? I lata później ten patent wykorzystał Apple tworząc iPhone’y. Te technologie, które zostały wpakowane do iPhone’a, ja kiedyś widziałem taką świetną infografikę, to są dzięki technologią kosmicznym, dzięki badaniom NASA sprzed dziesięciu lat. Oni to wykorzystali i stworzyli do tego produkt konsumencki. Także jasne, dziś, to, co właśnie w trakcie tego dzikiego Zachodu możemy tworzyć może niekoniecznie od razu będzie użyteczne, ale gdzieś tam kiedyś w przyszłości to może zbudować podwaliny. Dlatego wydaje mi się, że nie warto jest tego stopować i zaprzestać.
JAKUB ORLIK: Kamilu, zatem jesteś przekonany, że sztuczna inteligencja nie pozbawi nas prac i wielu zawodów nie zastąpi, tylko ich wspomoże. Po twojej rozmowie dostałem troszeczkę taką dawkę optymizmu, można powiedzieć. Może nie skrajnego optymizmu i na pewno nie ślepego, ale jest szansa, że jeżeli wdrożymy to z głową i być może także przy sensownych regulacjach, to uda się zrobić więcej dobrego niż złego?
KAMIL ŚWISTOWSKI: Tak. Przede wszystkim chcę wierzyć, że to się da zrobić. Oczywiście to nie jest tak, że technologia nie ma żadnych złych stron, ale uważam, że jesteśmy w stanie to popchnąć w dobrą stronę. Kolejnym przykładem, tak patrząc historycznie, mogłoby być to, jak dziś wygląda podejście do chociażby biznesu i pracowników, a jak kiedyś ono wyglądało. Wyobraź sobie, że takie 20 lat temu w firmie po transformacji, ze staromodnym myśleniem, no nikt nie pomyślałby wtedy, że dziś będziemy zalewani benefitami. Że do firmy zostaną sprowadzeni psychoterapeuci, którzy będa pomagali ludziom wziąć wolne. Zrozumieć to, że oni są istotami ludzkimi i mają dbać o swój czas wolny. Że ich manager będzie ich coachował na temat wellbeingu i tego, jak mają zharmonizować swoje życie. Biznes dostrzegł to, że to nie w bezpośredni sposób przekłada się na rezultaty firmy. W sensie deliverables, nie? Że to nie tak, że oni nagle więcej zarabiają przez to, że przeprowadzili tu terapeutów, ale przez to, że ludzie są szczęśliwsi. Przez to, że ludziom się łatwiej żyje. Ich wyniki są lepsze. I widzisz, dziś myślimy o czterodniowym tygodniu pracy. Kiedyś coś takiego byłoby nie w ogóle nie do pomyślenia. Miałeś cały dzień pracować i tyle, a wieczór sobie mogłeś spędzić jak chcesz, jeżeli nie miałeś nocki. No więc jeżeli weźmiemy ten czterodniowy tydzień pracy, no to jeden dzień jest zabrany. Ale jeżeli dorzucimy na przykład do tego AI, która te 20 procent zrekompensuje pracownikowi, to mamy człowieka, który pracuje tak samo wydajnie, ale ma więcej czasu, jest szczęśliwszy. A to może sprawić, że on będzie pracował jeszcze wydajniej. Więc wydaje mi się, że biznes przestawił się z takiego ślepego podążania za cyferkami, oczywiście one na końcu się liczą najbardziej. Biznes ma zarabiać pieniądze, ale nie jest to już takie dzikie i chcę wierzyć, że właśnie takie rozwiązania technologicznie mogą nam poprawiać tą jakość życia, jakość pracowników, jakość osób, do których są dostarczane te rzeczy. My u nas w firmie na przykład, w ramach naszego wolnego czasu firma pomaga nam zorganizować hackathony. Gdzie my naprawdę staramy się robić bardzo pozytywne i dobre rzeczy, nie dostając za to żadnego wynagrodzenia i firma nie zyskuje na tym nic tak naprawdę, bo my pomagamy zrealizować na przykład w tym roku cele Organizacji Narodów Zjednoczonych. Do tego w tym roku naszym tematem jest badanie bioróżnorodności owadów, po to, żeby móc lepiej dostrzec, czy jakieś gatunki nie są zagrożone, czy one nie wymierają, czy ta bioróżnorodność jest zachowana. Jest to coś, co jest to ciężko zrealizować, bo nie da się zaobrączkować owadów, w taki prosty sposób.
JAKUB ORLIK: Spadają te obrączki.
KAMIL ŚWISTOWSKI: Spadają te obrączki, tak. I te osy też są, nie każdy chce jednak obrączkować osy. Pszczółki są okej. No ale to są potrzebne rzeczy. I wiesz, to nie przekłada się na biznes, nie? To nie tak, że my weźmiemy ten i stworzymy biznes. To ma być sztuczna inteligencja, która będzie dostępna. Będą wykorzystywać ludzie do szczytnych celów. Innym przykładem, który też robiliśmy, to był projekt, w którym stworzyliśmy sztuczną inteligencję, który na podstawie zdjęć płetw waleni, bo płetwa walenia ma tak unikatowy kształt, jak linie papilarne, odcisk linii papilarnych, identyfikowaliśmy konkretne osobniki na podstawie zdjęć po to, żeby badać ich populację, czy one nie są zagrożone, czy właśnie gdzieś się nie gubiły, czy populacja jest na poziomie, który pozwala funkcjonować gatunkowi i tak dalej. I to są rzeczy, które technologia, no nie powiesz mi, że to możesz to wykorzystać w zły sposób? Znaczy okej, może możesz w zły sposób, ale nie powiesz mi, że to nie jest warte świeczki, żeby spróbować zrobić coś dobrego dla ludzi. Bo to te rzeczy mają nie bezpośredni, nie?, tak jak te właśnie rozmowy z pracownikami nie mają bezpośredniego wpływu na to, że firma dowiozła  coś więcej, ale nie mają bezpośredniego, ale nie bezpośredni wpływ właśnie mogą mieć. I chciałbym wiedzieć, że możemy technologie wykorzystywać nie tylko do podbijania ratingów, KPI-ów i maksymalizacji zysków, ale też móc zrobić z nią coś dobrego.
JAKUB ORLIK: Czyli czy będzie czy źle, to jest w naszych rękach. 
KAMIL ŚWISTOWSKI: Dokładnie tak. Jak ze wszystkim, nie? Nie można obwiniać narzędzia o to, jak go wykorzystujemy. Dynamit został stworzony po to, żeby wspomóc pracowników kopalni. Byłem jakiś czas temu w Norwegii, kiedy mi opowiedzieli o drodze, która skróciła przejazd do stolicy z dni do kilku godzin przez to, że wysadzili po prostu część tego, miałem takie, ej, to był dobry wynalazek, nie? Chyba jesteśmy w stanie, każdy jest w stanie sobie pomyśleć, jak wiele złego i jak bardzo źle da się wykorzystać to, ale to jak my to wykorzystamy, to leży tylko  i wyłącznie w naszych rękach.
JAKUB ORLIK: I ten wniosek zawsze trzymajmy gdzieś blisko przy sercu każdego dnia. Dziękuję ci bardzo za dzisiejsza rozmowę, Kamil.
KAMIL ŚWISTOWSKI: Dzięki bardzo.
To jeszcze nie koniec. Jeśli temat cię zainteresował, na końcu odcinka znajdziesz materiały, dzięki którym poszerzysz swoją wiedzę i umiejętności z obszarów omawianych w tym odcinku. A w międzyczasie, żeby nie przegapić kolejnych odcinków zasubskrybuj podcast TechChatter w swojej ulubionej aplikacji do słuchania podcastów. Jeśli ten odcinek ci się spodobał, daj nam o tym znać wystawiając ocenę w Apple Podcast lub w Spotify. Linki do tych serwisów oraz do zagadnień wspomnianych w odcinku znajdziesz w jego opisie. A teraz czas na polecone materiały. 
JAKUB ORLIK: Jeżeli dzisiejsza rozmowa cię zainteresowała ich chciałbyś, chciałabyś zagłębić się bardziej w temat, eksperci z Capgemini polecają twojej uwadze dodatkowe materiały, do których linki znajdziesz w opisie do tego odcinka. Znajdują się tam między innymi, dalsze dyskusje na temat tego, gdzie AI pomaga a gdzie szkodzi, wytyczne Unesco dotyczące etyki w sztucznej inteligencji, przykłady zastosowań AI w branży ubezpieczeniowej, oraz treść kodeksu etyki w kontekście AI, który obowiązuje w Capgemini.