 Także zapraszam Państwa do dyskusji. To ja może, jeśli mówię, zaproszę głosem. Chciałbym podziękować za bardzo ciekawe prelekcje, wystąpienia. Jestem tym powiem, że jestem pod dużym projeżeniem Państwa projektów jako całości. I przede wszystkim podoba mi się taka interoperacyjność, a to takie zazębianie się tych kwestii, które poruszacie. To znaczy, czy to na przykład w przypadku dezinformacji i tych dwóch proces systemu przetwarzania czy przetwarzania szybkiego i wolnego jak u Pana PiKsy i Pana Kreźnickiego, czy w przypadku właśnie nie do reprezentowania danych i problemu wykroczenia. I chciałbym zadać takie ogólne pytanie. Może do Pana doktora Piaseckiego, tak jak zrozumiem Panię z kierownikiem tego projektu, to znaczy jaki jest, ponieważ to jednak trochę różne też zagadnienia, jaki jest ten aut, który jest oczekiwany, jaki będzie ten to, co będzie osiągnięte w tym projekcie, na co Państwo liczycie jako całość. To jest pytanie pierwsze. Teraz pozwolę sobie zadać pytanie drugie do Pana Profesora Morzego. Ja też byłem kiedyś studiantem Politechniki Poznańskiej i interesuje się teraz obecnie naukową kwestią wyjaśnialności. Chciałbym zapytać o tą wyjaśnialność. Kiedy to były moje czasy na projektechnice, to znaczy nie było dużego zainteresowania problemu wyjaśnialności. Wręcz przeciwnie, jak bym powiedział nawet, chciałbym zapytać, czy teraz obecnie pracujecie tam Państwo albo sameki zespoły pracujące nad wyjaśnialnością modeli i w jaki sposób to się odbywa? Czy to już tak praktycznie? Czy to jest jakaś z oceniem uwagi na proces uczenia czy na przykład na zmiennych, które mają nami już udział w wynikach tego uczenia? Czy są jakieś normatywne takie guidelines, które mają w tym strować, czy jakieś tam modele, sprawdzające modele? Ja bym też Pan słowo o tym powiedzieć. Dzięki. Czyli dwa pytania. Dziękuję. Ja skoro te pytania pierwsze były od domu, a tak czy siak pewnie przekieruję to pytanie też trochę do Michała. Ja to zacznę przede wszystkim. Ja jestem z Miekształcenia filozofą, a bioetyk zajmuje się również na taką wypadań z udziałem uwagi. Więc nie tyle jestem kierownikiem projektu, a bardziej moja rola polega na tym, żeby zapewne funkcjonowanie na naszego interdysminarnego zespół i tak jakby się zajęnie rozumieli. Natomiast tym głównym pomysłem, który leży w podstaw całego projektu, jest próba połączenia właśnie z jednej strony wiedzy psychologicznej, a z drugiej strony umoczenia maszynowego i chodzi o to, żeby stworzyć takie narzędzie, które będzie w stanie przewidywać, czyjąć potatność na desy informacji, czy coś co jej jakoś wyraża się za pomogąco narzędzi psychologicznych, tak, takich, które są na sobą z zespół Michała. Jedynie na podstawie czynić aktywności w sieci, ale trzymy na to, jak ktoś się zachowuje na przykład na kwiterze, na podstawie tego zachowania będziemy w stanie określić jakiego rodzaju wynik w tym teściach od nościna, na desy informacji będzie taka osoba uzyskiwać. Drugim aspektem naszego projektu jest też wskazanie właśnie jakiego rodzaju interwencji, czy na przykład byłaby to jej jakiś rodzaj interwencji psychologicznej, który mógłby właśnie sprawić, że ludzie byli mniej skłonni do tego, aby rozpowszechnąć te dalej z kinie informacji. To jej narazie tutaj nie chce zdradzać żadnych śczytelniów, tym bardziej, że jesteśmy dopiero na początku tych badań, ale staramy się właśnie znaleźć taką interwencję, która będzie na przykład psychologiczna, chociaż nie koniecznie i będzie na przykład podobna do tych interwencji, o których mówił ten, o których mówił Ad. Dobra. Ja. Tak, a jeżeli chodzi o kwestie wyjaśnialności, to rzeczywiście to jest temat, który eksplodował informatyce na przestrzeni ostatnich trzech lat. To też jest związane z tym, że jest ogromne ciśnienie ze strony ustawodawców, żeby jak najszybciej to uporządkować i to są działalnie nie tylko na poziomie krajowym, ale przede wszystkim Unia Europejska, Stany Zjednoczone same z siebie też próbują, jak gdyby ucywilizować, bo ten rynek, cyber, sztuczna inteligencja, jak gdyby już widać, że ta sztuczna inteligencja będzie podstawową platformą najbliższej walki pomiędzy tymi dwoma wielkimi siłami, jaki stanowią ten świat, powiedzmy w cudzysłowie nazwijmy go światem zachodu, anglosaski, a Chinami. Więc wszystkim tak naprawdę zależy na tym, żeby to w jakiś sposób uporządkować. Jak grzyby w podeszczu pojawiają się nowe narzędzia i to chyba najbardziej pcha do przodu, tak jak zazwyczaj w naukach technicznych, jak się pojawiają narzędzia, to nagle pojawiają się, to one powodują, że poprzeczka bardzo idzie w dół, bo nagle wszyscy mogą, nie trzeba już wyjątkowych kompetencji, takich czystonarzędziowych, żeby się czymś zajmować, bo w momencie kiedy pojawiają się dostępne za darmo otwarte narzędzia, z których każdy może za pomocą dosłownie paru linie kodu skorzystać, to tutaj bardzo pcha do do przodu. Na przestrzeni ostatnich dwóch lat furorę zrobiły takie biblioteki, jak LIME, to są takie model Agnostic Local Independent, model Agnostic Explanations, gdzie od razu wprost z wizualizacjami pojawiają się informacje na temat tego, które cechy, które atrybuty, zarówno globalnie, jak i lokalnie, na poziomie pojedynczych elementów decydują na przykład o takim a nie innym sklasifikowaniu. Przykładowo, jeżeli mamy to, to nie tylko musi dotyczyć takich danych, typu, nie wiem, pacjenci, dlaczego dany pacjent został skierowany na leczenie, innym nie i teraz patrzymy, czy to jest kwestia wieku, płci, imię, miejsce zamieszkania, ale to może na przykład też być za aplikowane do tekstu. Mamy dwa kawałki tekstu, jeden został zaklasifikowany, jako mowa nienawiści, drugi nie, i teraz cechami są pojedyncze tokeny, pojedyncze słowa, albo interpunkcja, i możemy powiedzieć o model zwrócił uwagę na wystąpienie tego słowa, a nie tego słowa, i dlatego to słowo przeważyło i decyzja algorytmiczna jest taka, że to już jest sklasifikowane, jako mowa nienawiści. W zeszłym roku pojawiła się biblioteka Interpret, która dodaje jeszcze do tego mechanizmy takie jak wartości szapleja. Także powiedziałbym, że tak naprawdę przede wszystkim to, że pojawiło się kilkanaście bardzo prostych w użyciu narzędzi, które każdy może za aplikować do wolnej wytrenowanego modelu, spowodowało, że coraz chętniej ludzie na przykład dołączają takie analizy do swoich badań. Trochę tak na zasadzie jak parę lat temu nikt nie myślał o kosztach ekologicznych użycia informatyki jako takiej, a użycia sztucznej inteligencji w szczególności, po czym ktoś napisał prostą bibliotekę, która przelicza megaflopsy, czyli jednostki obliczeniowe, wydane na działanie komputera, nazwijmy to, tą benzynę przepaloną przez maszynę, która wykonuje obliczenia na miligramę CO2. I w momencie, kiedy ludzie zaczęli raportować, ile ekologicznie kosztuje wytrenowanie na przykład modelu językowego albo wytrenowanie modelu rozpoznowania obrazów i okazuje się, że wytrenowanie modelu językowego przez Google kosztuje tyle, co 10 lotów transatlantycznych, transatlantykiem, największym możliwym Boeingiem, no to ludzie zaczęli się drapać po głowie i mówić, kurczę, coś tu jest nie tak. Więc tak jak zazwyczaj w naukach technicznych i inżynierii, dobre narzędzia powodują, że otwierają się bramy i tak, to jest bardzo, bardzo gorący temat badawczy, dobrze, łatwo publikowalny, ale też ważne, ludzie rozumieją, że to jest ważne i chcą się tym zajmować. Ja jestem, ja jestem, dziękuję. Mamy też pytanie zadały online, żeby mogli byśmy prosić. Julian Daszkowski, mam nadzieję, że mnie słychać. Tak jest. Słychać. To znaczy, ja z wielką ciekawością tego słucham, bo jestem emerytowanym psychologiem, ponieważ psychologiem to słabo się znam na cyfryzacji, ale emerytowanym to tym bardziej. Tym niemniej mam pewne skojarzenia. Każdy banalnie powiem, każdy patrzy przez swoje okulary i słucha przez swój aparat słuchowy. Ale na przykład, gdy słuchałem pierwszych referatów, pojawiało mi się takie pojęcie, czy taki model determinism techniczny w komunikowaniu się. To jest tak zwana szkoła z torontą, byklahan, inż i tak dalej. Oto słuchałem opowieści o determinizmie technicznym. Pojawiają się nowe środki techniczne, tak jak kiedyś pojawiło się pismo alfabetyczne, które niesłychanie ułatwiło komunikację pisemną w porównaniu z kierogliwami na ten przykład. Tak teraz pojawiły się właśnie nowe środki techniczne, które z jednej strony ułatwiają, ale z drugiej utrudniają. Gdy słuchałem informacji o tym, że coś wyszukiwano w bazie skopusz, czyli gdzieś indziej, to od razu myślałem sobie tak. To znaczy nie znaleziono niczego, czego nie ma w bazie skopusz. To znaczy nie sięgnięto do literatury starszej, która posługując się zupełnie inną terminologią i może nieco gorzej, ale w gruncie rzeczy analizowała te same problemy przy pomocy innych środków technicznych i jak gdyby dochodziła do różnych wiosków, które uległy zagubienie. Gdy słucham o rzetelności informacji, przypomina mi się, że w humanistyce w historii jest taka cała dzina krytyka źródeł. To znaczy jest to pewien zasób umiejętności, które można nabywać. Dalej, jeżeli chodzi o kontrolę rzetelności przekazywanych informacji, to przypomina mi się Wańkowicz, karawka na fontena, gdzie on opisywa, jak to w redakcjach szanujących się czasopizm, istniała funkcja rysalczela. To znaczy kogoś, kto sprawdzał wszystkie informacje. Ja tutaj dodam, u mnie studenci w latach 90. pisywali prace magisterskie, gdzie sprawdzali, jak w polskich środkach masowego przekazu działa funkcja sprawdzania informacji. Nie działa. Czy nie działa. I jeszcze jedna rzecz. Pojęcia, które były tutaj wprowadzane, ja identyfikowałem zupełnie innymi pojęciami. Na przykład dystans do przedmiotu analizy. To jest właśnie to, jak nie angażuj się emocjonalnie w to, co chcesz ocenić. To jest jakaś taka, z tak powiem dawna rzecz. No i oczywiście, ja chcę powiedzieć coś takiego, z dziką przyjemność to osłuchałem, jak algorytmy popełniają dokładnie te same błędy, które popełniają luce. A błędy te, ja śledziłem od momentu, gdy zaczęły być analizowane. Tutaj nie było mowy o kanemanie, ale oczywiście ja rozumiem, że się świetnie znają to nazwisko, że wiedział, co to jest tam kognity, refleksji, też, i tak dalej. Ale w każdym razie z ciekawością słuchałem, jak to się rozwija teraz i sygnalizuje, że ja po prostu byłem świadkiem powstawania tych problemów, jeszcze zanim komputery stały się użyteczne w badaniach naukowych. Przepraszam, to nie były pytania, to były refleksje, one nie wymagają usłysząkowania się, to jest po prostu sprzężenie zwrotne pokazujące, jak odbierane są informacje przekazywane komuś, kto należy do zupełnie innego, do zupełnie innej nazwijmy to populacj wiekowej i zawodowej. Dziękuję bardzo. Ja tylko chciałem przewidliwić się ze skopusa. Nasz przegląd systematyczny bardzo, bo oczywiście Pan tutaj słusznie wskazuje, na przykład Kanemana, natomiast Kaneman nie odnosił swoich wdziałsków konkretnie do social mediów, więc mamy taką tendencyjność tam, że rzeczywiście prawiaram się tylko i wyłącznie od tego 2013 zdaję się badania, ponieważ my specyficznie chcieliśmy konkretnie badania empiryczne, które zajmują się tematyką desinformacji w social mediach. Oczywiście, ma pan rację, że jest dużo bardzo ciekawych badań, które podumą tematykę poruszałowej wcześniej, ale empirycznie nie badały tego w kontekście social mediów, więc z tego wynika. Natomiast bardzo, bardzo dziękuję za przywołanie powstania alfabetu, bo już pominę mi się taka cytat Platona, który właśnie mówi, że alfabet pismo to jest farmakon. W Starożytnej Grecji słowo farmakon, miało dwa znaczenia, byłyby takie dychotomiczne, bo oznaczało zarówno turcizm, jak i lekarstwo. I Platon, nazywając pismo farmakon, chciał właśnie to przekazać, że pismo będzie, czy w ogóle kultura pisanakta wtedy, bo już powstawała dopiero, a Platon był niepewny, czy chce być częścią, czy jej, czy nie. To mówi, że zarówno będzie turcizm, jak i lekarstwem, bo może w niektórych rzeczach pomóc, ale będzie zabijało myślenie. I chyba starając w powstaniu powstania nowej technologii, jaką są social media, znowu możemy powiedzieć, że to jest taki farmakon, że niektóre rzeczy będą się stały działy złe i trzeba się zastanawiać nad tym, jak ich szkodliwość ograniczyć, ale też będzie lekarstwem na różne problemy. Dziękuję. Myślę, że mamy jeszcze czas na co najmniej jedno pytanie, czy ktoś z Państwa, a jeszcze ktoś z Państwim, który chciałby tutaj poruszyć, że mam takie pytanie dotyczące tego pęcia korekty społecznej, nie wiem czy ja to dobrze odczytuję, ale czy to wiąże się między innymi działalnością elfingu internetowego, czy możemy to w takich kategoriach rozpatrywać? Nie ze zmiany. Elfingu internetowego, czy wszystkich się... Można tak powiedzieć, tylko, że tutaj konkretnie starano się jakąś interwencję zastosować, żeby tą społeczność konsolidować. Czy to było działalnie kumptowe? Tak, tak, tak, więc chodziło o to, żeby po prostu to się nie działało oddolnie, dlatego rzeczywiście wchodzili badacze i byłowali nakłonić społeczność do tego, żeby zainteresować i sami te dyretyczne rozwoły, ale tak, no to elfingu to jest dobre. Dziękuję bardzo.