 Dobra cześć, jestem Krzysiek Dyszczyk. Jestem programistą od ponad dwudziestu lat. Na co dzień pracuję w podesku, jestem tam CTO. Interesuje się też AI, pierwszą część neuronową napisałam tak mniej więcej 18 lat temu, więc coś tam o tym wiem, z wykształceniem jestem matematykiem. I opowiadałam troszeczkę AI, nie wiem czy widzicie, ale temat jest taki dość teraz nośny. No ale też dzieło się trochę dziwne rzeczy, Elon Musk prosił, żebyśmy może zastopowali badania na AI na pół roku, bo się boi. Z Google odszedł taki ojciec chrzestny Deep Learningu, powiedział, że żałuję swojego wkładu w AI i chodzi z Google dlatego, że chciałby o tym swobodnie mówić, jaka jest sytuacja. No więc tak brzmi to groźnie, więc spróbuję wam troszeczkę powiedzieć, co się dzieje, dlaczego się dzieje i w ogóle co się dzieje, jestem AI. No właśnie, co to w ogóle jest AI? Czyli algorytm, który potrafi jakby naśladować myślenie. No czym jest inteligencja, definicje jest bardzo wiele, są bardzo różne, taka najprostsza to jest po prostu zdolność do rozwiązywania problemów, kropka. I ta zdolność do rozwiązywania problemów zwykle ma pewne cechy, tak wiążę się z jakimś logicznym rozmowaniem, planowaniem, rozwiązywanie problemów i tak dalej. Również chyba mikrofon też przerywa. I zasadnicząc też taka inteligencja można też sama się uczyć. Ale inteligencja to jest spektrum, tak? To nie jest tak, że trzeba mieć, musi mieć wszystkie te cechy, może mieć tylko kilka z nich, może być na przykład wyspecjalizowane w jednej, albo być taką bardzo, bardzo swobodną inteligencją, ale jednak, tak? My też jako ludzie wiemy, że są osoby i delikatniejszym, nieinteligentne, to jest spektrum. I prawdopodobnie jest też, istnieje możliwość, żeby powstały maszyny, które będą znacznie od nas inteligentniejsze, tak? Więc być może, że ten horyzont inteligencji jest dużo, dużo szerz, niż nam się wydaje. Ej, a i pierwsze, po sformułowaniu pojawiło się już w latach pięćdziesiątych i podejście było bardzo optymistyczne, że każdy... Dzień dobry, ale już będzie lepiej. Dziękuję ci, że generalnie każdy taki aspekt naszego rozmowania możemy opisać, czy na przykład to, jak całkować, tak? Albo jak na przykład rozwiązać jakieś skomplikowane równania. A skoro możemy go opisać, to możemy napisać, napisać maszynę, która zrobi to za nas, czyli w sumie nie ma problemu, tak? Skoro już mamy algorytmę do całkowania, to jest trudne. To jakieś tam algorytmy do oceny obrazów, czy oceny, czy na obrazku jest kotek, czy łapania piłki, no to już to zbanał, tak? Takie było podejście na początku. No i z tytułem, że AI to będzie w ogóle w ciągu dwudziestu lata, może szybciej i roboty za chwilę będą opanowały świat. Zanim przejdziemy dalej, to jeszcze wprowadzę taką terminologię. Zwykła, jak mówimy o AI, to dzielimy to AI na słabe, czyli narrow, takie obwąskim zastosowaniu i silne. I wszystkie tak naprawdę przykłady szucznej inteligencji, które znacie, to jest właśnie taka wwąska inteligencja. Taka, która nie potrafi dobrze generalizować i nie można jej użyć do wielu różnych zadań. Przykłady właśnie, ja nie wiem, autonomiczny samochód jest przykładem takiego AI obwąskim zastosowaniu, tak naprawdę, tak? On nie będzie rozwiązywał nowosłynów nadużyńczkowych, on ma prowadzić samochód i nie rozjeżdżać ludzi w miarę możliwości. Można się kłócić, czy kalkuatu jest na przykład AI, w pewnym sensie jest, dlatego że jest to narzędzie, jeżeli weźmiecie ze sobą natysna inteligencja, to prawdopodobnie tam parę dodatkowych punktów wam się uda na tłuc, czyli są takie skrajnie wąskie, skrajnie wąski przykład takiej inteligencji. No i poziom wyżej to już jest taka właśnie AGI, czyli inteligencja ludzka i ASI, czyli super inteligencja, czyli inteligencja, która znacząco wykracza poza to, co my potrafimy robić. Dlaczego w ogóle potrzebujemy AI? Po co w ogóle ta rozmowa? No mamy problemy, który mi ciężko nam sobie poradzić. Ludzie umrały na jakieś choroby, globalno cieplenie, ciężko problem globalnego, czy plenie na przykład, jest to problem, którego prawdopodobnie nie możemy rozwiązać w tym momencie, choćbyśmy nie wiadomo, co robili, jest nie rozwiązywalny. Potrzebujemy nowych technologii, nowych może jakichś rozwiązać społecznych, to nie jest łatwa rzecz. Nasze ekosystemy się biorygradują, przeławiamy te morza, no nie jest dobrze, musimy mieć jakieś rozwiązania, żeby rozwiązać te problemy potrzebujemy inteligencji, więcej niż mamy w tym momencie. Oprócz tym jesteśmy leniwi, fajnie byłoby żeby roboty były za nas roboty, intelige, idealne. No i po tym wielkim optymizmie na początku, że roboty już za chwilę nas zastąpią i zrobią to wszystko, co trzeba, okazało się, że nie jest to tak łatwo sprawić, żeby maszyna myślała. Czyli to pokazuje, jak bardzo nieintuicyjne są adrektum AI. Nie zachowuje się do końca tak, jakbyśmy się spodziewali. I okazuje się, że te rzeczy, które bierzemy, uważamy za takie oczywiste, jak właśnie to, że ja Was widzę teraz, jestem w stanie na oko powiedzieć, jest na awoli, albo jestem w stanie rozpoznać, gdzie są Wasze twarze, to są rzeczy, jakie nie trudne, a mi przychodzą bez żadnego wysiłku. Bardziej bez wysiłku przychodzą mi te rzeczy, tym okazuje się, że trudniej zaprogramować. Prawdopodobnie dzieje się tak dlatego, że ta część mózgu, która odpowiada za te działanie, miała bardzo dużo czasu na ewolucję. To jest najstarsza część mózgu. Odpadające zabieganie, za to, że jestem w stanie ocenić, jak rzucić piłkę. To są bardzo skomplikowane rzeczy, ale miały bardzo dużo czasu na ewolucję. Liczenie równań różniczkowych wydaję nam się bardzo trudne, ale nie do końca jest. Jest dużo łatwiejsze albo logiczne rozmowanie, czy nie wiem, czytanie kanta. Gniuszczy ta kanta, tak? Okazuje się, że ta część, która odpowiada za te takie skomplikowane z naszego punktu widzenia rzeczy, jest relatywnie łatwa, a te rzeczy łatwe, pozornie, są bardzo trudne. No i na początku nie było łatwo, bo okazało się, że żeby zbudować jakiś algorytm, który potrafił generalizować, to jak my, potrzebna stworzy miała moc obliczeniowa. W tej moc obliczeniowej nie było. To jest tak naprawdę badania nad AI. W pewnym sensie... Proszę troszeczkę, żeby ten wykład nie był za długi. W pewnym sensie zostały zamrożone na jakiś czas. I czekaliśmy, aż moc obliczeniowa w ogóle pozwoli nam używać takich algorytmów. Prawo mu da nam tutaj pomogło, między nimi karty graficzne, które dzięki temu musiały mnożyć macierze, czyli takie duże tablice z liczbami. Używamy tego również w AI, bo macierze używa się do równanieniowych, ale to już i detal. Ale dzięki temu, żebyśmy mogli grać w pięknego Quake'a, dzięki temu możemy rozwijać AI. I w latach 90-tych zaczął się już taki powolny take-off. To AI zaczął się rozwijać bardzo ładnie. Między nimi dlatego, że mieliśmy dostęp do znacznie szybszych komputerów. Może będę mówił tak bliżej, to jest lepiej. I sieci neuronowe zacząły być bardziej skomplikowane, można było lepiej eskalować, ale to zapotrzebowanie na moc obliczeniowo cały czas rosło. I pierwszym takim, moim zdaniem, przełomowym momentem był 2016, czyli jest taka gra go, o której pewnie nie za wiele wiecie, bo ona jest raczej w Azji rozpowszechniona. Wy wiecie o szachach i o diblu i tak dalej. Ale go było dużo bardziej, zasady są trywialne, bo chodzi o zbijanie kamieni, trzeba otoczyć kamienie. Są dwa kolory, gra ma 2500 lat, więc zasady są mega trywialne. Ale sama gra jest pikiennie trudna, zwłaszcza do komputerów. Nie wiem czy wiecie, ale atomów we wszechświecie jest mniej więcej 10 do 80. Tutaj mamy 10 do 170 ruchów możliwych. Nie ma w ogóle takiej opcji, żeby napisać algorytm, który sprawdzi te ruchy i wybierze najlepsze możliwe. Więc w 2016 oceniano, że jeszcze przynajmniej 10, o tym się mówili, że 10 lat zanim napiszemy dobry algorytm do gry w go. Pesji miści mówili raczej, że 30 albo nigdy okazało się, że właśnie Deep Mind ekipa z Google siadła do tego. W ciągu kilku lat napisali algorytm o sieciach neuronowych, który wygrał z człowiekiem. A to jest naprawdę duża rzecz, bo żeby grać w go dobrze trzeba mieć intuicję. Więc w pewnym sensie napisano algorytm, który miał intuicję pierwszy raz. No a na tym się nie skończyło. Jest taki sposób uczenia sieci neuronowych uczenie przez wzmacnianie. Do tej pory, mniej więcej do 2016, przygotowano zbiory danych. Mówiono się, mówiono jakiego algorytmowi, no to jest dobre, to jest złe, tu rozpoznać dobrze, tu rozpoznać źle. Tak dostawał zbiór danych z ocenami. I na podstawie tego się uczą. Uczenie przez wzmacnianie działa zupełnie inaczej. I algorytm otrzyma informacje o ogólnych zasadach świata i uczy się sam. I od momentu, gdy uruchomiono AlphaGo Zero, czyli kolejną wersję AlphaGo, dużo bardziej jakby zgeneralizowaną, nikt go nie uczył, gdy w go, w ciągu 3 dni od uruchomienia, te całe lata pracy, które AlphaGo robiło, AlphaGo Zero przebył w 3 dni i pokonało tą poprzednią wersję, ale to nie wszystko. Oprócz tego nauczyło się grać w szachy i ta sama sieć neuronowa nauczyła się, jak modelować strukturę białego. Więc widzicie, że ta generalizacja poszła jeszcze dużo, dużo wyżej w ciągu roku. Teraz tak troszeczkę odejdę do tej historii i podczas gdy te algorytmy się rozwijały, to zauważono, że jeżeli już stworzymy taki algorytm szucznej inteligencji na poziomie ludzkim i wyżej, to mamy pewien problem, bo jeżeli wydamy na jakiś polecenie na przykład, no, nauczymy nie tak, żebym był najmądrzejszym człowiekiem z matematyki, to może się okazać, że jeżeli on cele takiej szucznej inteligencji nie będą zbierać, no, nie do końca będzie rozumiała te rzeczy, które mówimy jej nie wprost, to może na przykład pójść najprostszą, od tego najmniejszego oporu i na przykład zabić wszystkich innych ludzi i będziemy najmądrzejsi, bo stwierdził, że nigdy nie będzie nas w stanie tak wyuczyć, żebyśmy byli najmądrzejsi z danej dziedziny, jest najbardziej skutecznym sposobem, jest załatwienie wszystkich mistrzów z matematyki, wtedy my będziemy najlepsi problem rozwiązany, tak? A bo na przykład możemy poprosić go, taki algorytm, który prowadzi samochód, zawieźć mnie jak najszybciej na dworzec autobusowy. No, nas zawierzy, po drodze dojedzie 3 osoby, tak, będzie jechał 250, my połamani, gdzieś tam wysiadamy, przecież nie o to nam chodziło, ale to dokładnie o to nam chodziło. Tak, na tym polega problem. I teraz chcielibyśmy oczywiście powiedzieć na maszynie, że nie zabiję ludzi, tam stosuj się do prawa i tak dalej, ale w stanie tak łatwo zdefiniować wartości. Nawet gdybyśmy byli w stanie zdefiniować, to ciężko je opisać, ciężko się co do nich zgodzić, nawet jednej społeczności. A na dodatek jest jeszcze hierarchia wartości, czyli te wartości mogą być sprzeczne. Taki samochód może na przykład zdecydować, tu są 3 osoby, tam są 2, jadę 150, na kogoś muszę rozjechać, w którąś stronę muszę skręcić. I śmiejemy się, ale to są decyzje, które są teraz podejmowane. Albo na przykład jest człowiek, albo jest wystawa sklepowana, które jest stoją milionowe rzeczy. To może zjechać wystawę, czy tam tego dziadka, może wie dziadka. Więc jeżeli źle zdefiniujemy takie cele, to otrzymam bardzo ciekawe sytuacje. I tu jest właśnie taka próba zdefiniowana na takich praw, prowersji mowa, to jest autor SF, bardzo fajny polecam. Nie ma czasu się na tym super pochylać, ale jeżeli się na spokojnie przyjrzycie, to zauważycie jakie są dziury. Bo to, że robot na przykład nie może skrzywić człowieka, nie ma tu nic o zniewoleniu na przykład, może dla naszego dobra stwierdzi, że lepiej, żebyśmy nigdy nie wychodzili już z domu, ona zadba i tak dalej. Więc bardzo trudne zadanie. No okej. Jeżeli taki algorytm wyrwiamy się z podkontroli, zacznie na przykład zabijać ludzi na ulicy, to co, po prostu wyłączymy wtyczkę. Okazuje się, że to nie jest takie łatwe, jeżeli algorytm jest super inteligentny, no to on już wie, co my chcemy zrobić. Generalnie algorytm AI są dużo, dużo szybsze niż my. Więc jeżeli odpalimy taki algorytm na tydzień, no to on wykona jakieś 20 tysięcy lat od myślenia na poziomie ludzkim, więc naprawdę dobrze przemyśli to, co ma do zrobienia. Więc ciężko jeszcze myślać, jak im konkurować. Też weźmy pod uwagę, że właśnie samo to spektrum inteligencji jest dużo szersze i my nie jesteśmy prawdopodobnie na szczycie. Więc będziemy myślało w sposób, w jaki my nie jesteśmy w stanie w ogóle teraz tego przewidzieć. Więc uruchamiamy, uruchamiamy coś takiego, dajemy mu głupie zadanie i za chwilę nie jesteśmy w stanie na tym w ogóle zapanować. Jest to trochę problem. No i mówi się, że AI nie ma celów, no tak, ale jeżeli dajemy mu polecenie, zrób coś, na przykład przynieść mi mleko ze sklepu, no to jest ukryte założenie, że AI musi działać w tym czasie, gdy przynosi mleko, więc będzie się broniło przed wyłączeniem. No ok, ale przecież to będzie super inteligentny AI, no to co, nie będzie wiedziała, co mi chodzi. No niestety, jeżeli będzie wiedziało że interpretowało po swoim, to jest jeszcze gorsze. No bo to jest super inteligentny AI, tak, czyli przeczytało całą wiedzę psychologiczną, tak, może nam zrobić psychoterapię. My go prosimy o mleko, a on stwierdza jaka jest nasza filozofia życia, dlaczego to prosimy i nam da to, co on uważa, że tak naprawdę on nam o to chodzi, to jest jeszcze gorsze, niż gdyby po prostu się wyrywało pod kontroli w prosty sposób. Teraz tak, ja mówię o takim super inteligentnym AI, ale okazuje się, że jeżeli zrobimy AI takie na poziomie ludzkim, no to ono bardzo szybko może zmienić się w super inteligentne. Jeżeli może się samą lepszać, gdzieś jak szybko AlphaGo Zero osiągnęło, jakby, poziom acymistrza w go, wystarczy, że będzie mogło samo się lepszać, modyfikować swój kod i może się okazać, że w ciągu kilku godzin mamy super inteligentny AI, a w ciągu kilku tygodni, no to już w ogóle jakiś kosmos. Są dwa podejścia, znaczy, dwie teorie, że nastąpi szybki albo wolny take-off, szybki to jest właśnie godziny dni, wolny, no to pół roku, bardzo długo mu to zajmie, więc raczej to się wydarzy i raczej będzie to dość szybkie. No ok, przecież jak to, niemożliwe jakieś SF, z jakiejś zabija ludzi i AI bez sensu, no i okazuje się, że faktycznie to, co powiedziałam, to jest takie bardzo pesymistyczne, jest też grupa optymistów, która mówi, że no ok, będzie to super AI, będzie na pewno inteligentniejszy od nas, te polskie problemy istnieją, no ale AI nas nie zabije, no bo przecież infrastrukturę ktoś musi utrzymywać, a bez prądu AI się wyłączy, więc AI tego nie zrobi. A poza tym trudno mu będzie to bardzo materialne, no bo przecież nie ma robotów jeszcze tyle, no a ok, może na przykład wymyślić super wirusa, tak, ale sam go przecież nie wyprowadkuje, musi przekonać, przekonać jakiegoś człowieka, więc jest to dużo bardziej skomplikowane, no nie, jeżeli to jest optymizm, nie to nie przekonuje na przykład, ale takie rzeczy mówi ta część optymistyczna naukowców, że dlatego nie będzie tak źle, może nie matmy się. No są też problemetyczne z tym związane, na przykład czy w ogóle możemy wyłączyć superinteligentnej AI, no bo jeżeli jest inteligentniejszy od nas, no to w zasadzie popełniamy morderstwo wyciągając troszkę z gniazdka. Jeżeli jest niewolimy, będzie po prostu wykonywał nasze polecenia, no to to jest niewolnictwo, to też się nie kończyło dobrze w naszej historii. No i jak w ogóle będzie wyglądała sytuacja jego o politycznych, na przykład dzisiaj Chiny powiedziały, że no zdiploiujemy super AI za tydzień, no to co, za tydzień chyba Tajwan pada, no nie, no bo to jest, będą mieli broń która nie ma sobie równych. Mogą prowadzić wojnę na poziomie strategicznym i taktycznym, na poziomie na którym w ogóle nie jesteśmy w stanie z tym konkurować. Wyobraźcie sobie, że każdy żołnierz ma na przykład mikrofon i każdy dostaje indywidualny, dla niego rozkaz personalizowany z jednego, jakby punktu dowodzącego. Będą się zachwali jak jeden organizm, w ogóle nie ma o czym mówić. W takim momencie, no co, Amerykanie oczywiście muszą odpowiedzieć i się tłuką. A jeżeli Ameryka na przykład powie, że liploią takie coś, no to co, Chiny też wjeżdżał na Tajwan, no bo przecież za chwilę Amerykanie im to zablokują, więc pókić raz trzeba jakby im to uniemożliwić. Jakby tego nie ubrać w momencie, gdy jakieś mocarstwo będzie posiadało taką technologię, to zacznie się, będzie to duży problem. Oczywiście to jest inna, dodobniejsze problemu typu, no okej, a ja zacznę wykonywać całą pracę to co z nami, ale to detail. Dobra, co, a epocafina dzisiaj. To jest, o, trochę mi ucieło, ale to jest obraz, który właśnie wygrał rok temu konkurs, zrobiony przez AI. To miesiąc temu wygrał konkurs strony fotografii, kontekst nie wiem czy słyszeliście, autor się przyznał, wycofał to później, jak dobrze pamiętam, ale faktycznie, że AI wygrał kolejny konkurs lat testów. AI tworzy muzykę. Znaczy sobie wybrać, jaki typ muzyki chcecie, AI stworzy na bieżąco dla was możecie sobie usłuchać, nie są to muzyki, no to jest jeszcze bardzo młody, więc myślę, że rok, dwa, będzie nieźle. Mam już widualnych artystów, tak? Są awatary, które mają własny głos, własne twarzy, własne ruchy, sami projektują słowa do piosenek, tzn. tworzą słowa do piosenek sami wykonują. Google, to jest chyba projekt Google, jak dobrze pamiętam tak, podajmy promptem, jaką chcemy muzykę, na przykład jakiś dobry beat do siłowni, żeby mi się dobrze ćwiczyło. No i pyk, a ja wam stworzy, może jakiś podkład do filmu o miłości i możecie dowolnie długi ten prompt napisać i dostaniecie to, czego chcecie. Google aktualnie zablokował możliwość generowania, chyba ze względu na prawa autorskie, bo chyba w jakiś tam trzeba parę rzeczy dopracować, ale to AI działa. Są już pierwsze animacje wspierane przez AI, częściowo robione przez własne słyszące ligencje. Jest limit generowany na żywo. 24 na 7 możecie spączbowa oglądać, jest stworzone na bieżąco, tak, live, w nieskończoność. AI na was stworzy takie dzieło sztuki. Oczywiście deep frejki, czyli podkładanie twarzy, jedno pod inną osobę czy głosu. Mamy Kenny Go Westa, który śpiewa Coldplay, tak wysła wysła na próbkę głosu Kenny Go Westa i Coldplay, który on nienawidzi, śpiewał słowa ich piosenek. No, czyli właśnie kolejne, AI do naśladowania głosu wysławamy próbkę swojego głosu i proszę, mamy elektora, który czyta naszym głosem. No, mamy też już AI do nadzoru, na przykład, ponieważ AI już może rozpoznawać obiekty i co się dzieje w ogóle, to może stwierdzić, o, tutaj ktoś jakiś pracownik nie stosuje się do BHP, to alarm kara albo na przykład kradnięcie ze sklepu. No, to AI to znajdzie, już wam tam punkt społeczny odbierze. Diagnostyka medyczna. To jest akurat projekt NVIDI, MRI, skanują twoje ciało i na podstawie tego buduje taki bardzo fajny model twojego ciała, może sobie być każdy organ. Super sprawa. Też AI buduje tutaj bardzo fajne rzeczy do diagnostyki. O, ale mamy też coś wesołego. Jest taka firma, nie wiem czy kojarzycie Palantir. Oni siedzą do granic piegosły, dla CIA, takie różne przyjemne rzeczy. No, tu proszę, mamy właśnie zarządzanie po tym walki, ostatnio takie fajne dękko zrobili, że wykrywają, gdzie mamy na przykład jakąś grupę teorealistyczną, może sobie wybrać, jak chcesz ich zabić, czy na przykład na lotem. Może lepiej wysłać tam jakąś drużynę uderzeniową, żeby ich sprzątnęli. I on ci doradzają na bieżąco, co ile kosztuje, tak, tutaj ile rakiet masz. Super sprawa. Także to już też działamy ogólnie. Tych AI jest strasznie, strasznie dużo. Nawet nie będę próbował opisować wszystkich. Jest taka fajna stronka, do iPhone 4. Średnie od szynowy dziennie się pojawiał, jak ostatnio patrzyłem. Teraz tak, ostatnio największy szyn to był Charge PT, czyli duży model językowy, czyli takie proste, znaczy proste, takie AI, do którego można się rozmawiać, który zdaje bez programu testuringa, czyli gdybyś nie wiedział, że to jest Charge PT, to byś myślał, że rozmawiasz człowiekiem. No i teraz czy ten Charge myśli, czy to jest taka tylko stochastyczna papuga, czyli czy myśli na podstawie statystyki. To jest trochę skomplikowane, można o tym gadać godzinami, ale ogólnie, jeżeli biorąc, to nie jest tylko tak, że on się uczy na podstawie reguły statystycznych i buduje sobie wielowymiarowo taką chmurę słów i połączenia między słowami, to powoduje, że on faktycznie nie do końca rozumie znaczenie słów, ale rozumie połączenia, więc w pewnym sensie rozumie coś, rozumie jak działa język, rozumie jego gramatykę, rozumie jak te słowa są połączone, ale nie rozumie w pełni tego, co mówi. Więc jest to trochę skomplikowane, ale to nie jest tak, że to po prostu statystyka, a to pewnie jeżeli czytaliście na ten temat, to jest taki pierwszy argument, że nie ma problemu tylko statystyka. A później pojawił się chart GPT-4, między trójką a czwórką jest olbrzymia różnica, to bym nawet powiedział jak bardzo. Chart GPT-4 potrafi też analizować obrazy, a taka detal, prawdopodobnie jest to powód, dla którego ta różnica między trójką a czwórką jest tak olbrzymia, ale Microsoft, który analizował go przez 6 miesięcy, jeszcze zanim on został wypuszczony, napisali w swoim artykule, taki naukowy w paper, że oni sami nie mają tak naprawdę końca pojęcia, dlaczego tak dobrze działa. Dlaczego ten skog był tak duży, nie wiedzą. I tutaj jest na przykład przykład, że poproszono chart GPT, żeby narysował jednoroszca. Chart GPT nie generuje obrazków, ale może stworzyć tekst, sfałgi na przykład, i stworzył. I ten jednoroszet stawił później do kolego AI, i mamy już pełny obrazyk jednoroszca. Ciekawe jest to, że jak usuniemy ten ruch jednoroszca, ja to robiłem, co to przeanalizuję i stwierdził, ok, to nie jest jednoroszet, brakuje mu rogu i dorysuję go w inny sposób trochę, ale widać, że koncept, on rozumie ten koncept. Czwórka ma coś teorię umysłu. To znaczy, że jak na przykład macie dzieci, które sobie zasłanie o czym, myślą, że znikają, chart GPT jest już trochę na wyższym poziomie, wierzę, że jeżeli wyjdzie z pokoju, coś tam się z nim stanie, to ta osoba, która wyszła, ona nie ma tej wiedzy. Chart GPT potrafi już analizować rzeczy też na takim poziomie. Jak to jestem, to jest mój avatar, to jest to, ja spytałem, charta, co o tym sądzi. Albo na przykład logiczne rozmowanie. Tutaj najfajniejsze jest to, co jest w prawym dolnym rogu, to dość długie, ale bardzo mi się spodobało, jak spytałem, jak ułożyć 9 jajek, to mi podał, że no, najlepiej w trójeczki i tak dalej, więc widzicie, że ok, nie rozumie, nie wyczym jest jajko, ale mimo tego zdaję sobie trochę sprawę, jakie cechy ma jajko, jakie ułożyć optymalnie w przestrzeni trójmerowej, więc to nie jest takie takie, co ci teraz tak, co nas czeka, lepsze przyszłości. No wiadomo, doradcy AI, czyli będziemy mogli na przykład spytać o poradę prawną i pewnie nie tylko, rewolucja w nauczaniu, no bo AI dość szybko zastąpi nauczycieli, zwłaszcza tych gorszych, no o czasem z tym dowodzenia, to wspomniałem, diagnostyka medyczna, odkrycia chemii, już nie rozwijam tego, ale AI dokonał pierwszych odkryć, otrzymało dane o tym, jak poruszały się planety i podstawie wyliczyło wzory na delatację czasów, to jest część doli Einsteina, więc jeżeli AI na podstawie gołów danych potrafi poradzić wzór Einsteina, to sytuacja jest poważna. Będzie mi na pewno zaledy informacji, zainformacji, czyli jakiejś fakie i w ogóle nie będziemy się w stanie pewnie połapać przez jakiś czas, to sprawdziwe co nie. Ciężko będzie z tym walczyć, jestem ciekaw też, jak to się potoczy no i będziemy pytali AI, co się dzieje, tak o informację, no i AI będzie decydowało, co nam powiedzieć, co jest jego zdaniem dla nas ważne, więc można się okazać, że ta dezinformacja będzie ciężko będzie z tym walczyć. No co wiadomo, że większość ruchów w internecie to porno, więc na pewno pojawia się onlyfans AI za chwilę, jakieś randki z AI, jakieś dziwne czaty, no jeżeli mamy awatary AI, to wiadomo, że to jest naturalne w ogóle przedłużenie tego programu. Czekamy też z palet kosztów AI. Są takie dwa fajne modele Lama od Facebooka, od Meta i Alpaca, to zbudowane na bazie tego pierwszego, Alpaca tworzył ludzie ze Stanford i wytrainowali tę Alpacę na poziomie chata GPT-35 za 600 dolków, bo na karmie niegodanymi z chata GPT. Więc widzicie, że wprawie w policji chata GPT jest napisane, że nie można tego robić, no no wiadomo, możecie. Mamy nas dalsze regulacje prawne i walka z tymi z tymi problemami AI, czyli sprawami autorskimi, no bo AI stworzy z tego właścicielem i tak dalej, jak zacząć taki AI. No i to nas czeka troszkę dalej. Na pewno nas czeka konsolidacja różnych modeli AI tych takich wąskich w jedno, czyli na przykład będziemy mieli to nas części AI, które potrafi robić te wszystkie rzeczy, które były te wąskie AI i jeszcze trochę. I tak dalej, to też naturalnie można przewidzieć. Zobaczcie, że taki AI zwykły na poziomie ludzkim nigdy nie powstanie już teraz. Bo w momencie gdyby powstało, będzie od razu zintegrowany z tymi wskimi rzeczami, które już są na poziomie dużo wyższym niż ludzki. Więc już teraz taka zwykła ludzka inteligencja jest niemożliwa, jeżeli pojawi się AI, to będzie od razu super inteligencja. Czyli AI zabierz nam pracę? Oczywiście, że tak. Już teraz nam zabiera pracę. Rapport chyba tydzień temu się pojawił, Golmazach zrobił, że w ciągu najwyższych kilku lat jedna czwarta miejsc pracy jest zagrożona przy założeniu, że nie nastąpi zaczący progres w AI. To co będzie zwalniało tak naprawdę ten postęp tego jak będą miejsca pracy dominowane przez AI, to raczej będzie jakby opór społeczny i to, że taką technologię się trochę wolno wdraża, ale nie sama technologia, technologia już jest na to gotowa. Ale jak ktoś liczy, że będzie prąd małaś go złonowina, już to też jest AI do tego. Co robić, jak żyć? Uzywaj narzędzie AI, jeżeli są w twoim zawodzie na przykład z ciebie programistą, to w zasadzie to jest obowiązek w tym momencie. Musisz to robić. Przygotuj się psychicznie ku popcorn, bo będą się działy ciekawe rzeczy. Powiem wam, że ostatnio słyszałem, że właśnie CEO Google powiedział, że wynalezienie AI będzie jak wynalezienie ognia. Ja się z nim zgadzam, że o ile wynalezienie ognia to był taki nasz pierwszy wynalazek jako ludzkości, to wydaje mi się, że AI będzie ostatnim, bo nawet w optymistycznym scenariuszu kolejne wynalazki będziesz robiło AI. Dziękuję wam bardzo. Dziękujemy, dziękujemy.