"Zazwyczaj, zanim przeprowadzi się eksperyment na ludziach czy zwierzętach, jego możliwe skutki są obowiązkowo oceniane przez specjalne komisje. W tym przypadku poważna ingerencja w tkankę społeczną całej ludzkości przebiega żywiołowo" - wyjaśnił profesor.„To wypuszczenie w przestrzeń społeczną narzędzia, które potęguje zgiełk informacyjny. Żyjemy w cyfrowej infosferze nasączającej nas każdego dnia strumieniami informacji, które nie układają się w wiedzę, nie układają się w prawdę ani w opowieści sensownie tłumaczące świat. Generowanie kolejnych fal informacji sprzyja dezinformacji rodzącej głębokie spolaryzowanie w wielu krajach. To zaś obok samotności staje się jednym z głównych wyzwań wielu nowoczesnych społeczeństw” – przestrzegł socjolog, mówiąc o zagrożeniach związanych z ChatemGPT.
Chat GPT został opracowany przez amerykańską firmę OpenAI i służy m.in. do tworzenia odpowiedzi na pytania lub polecenia wprowadzane przez jego użytkownika. Potrafi wykonać bardziej złożone zadania, na przykład napisać opowiadanie czy program komputerowy. Wyróżnia się np. tym, że jest w stanie pisać teksty o jakości porównywalnej do treści tworzonych przez utalentowanych ludzi. Wykorzystując techniki głębokiego uczenia się generuje odpowiedzi w czasie rzeczywistym w zależności od przedstawionych mu w pytaniu parametrów.
Pomóż w rozwoju naszego portalu
Reklama
„To narzędzie, które niemal całkowicie unieważnia niektóre ludzkie kompetencje. Przez rozwój sztucznej inteligencji zostają również zaburzone sprawdzone i tradycyjne zasady porządkowania rzeczywistości – np. zdjęcie czy film tracą wartość wiarygodnego źródła informacji o czymś, co obiektywnie zaistniało. Być może jesteśmy też o krok od śmierci sztuki” – ocenił prof. Zybertowicz.
Dodał, że powszechność ChatuGPT może również wpłynąć na osłabienie więzi społecznych i nawet intymnych kontaktów międzyludzkich. „Poza pewnymi przydatnymi funkcjami, które oczywiście istnieją, jest także zabawką atrakcyjniejszą od kontaktów z rówieśnikami, rodzicami czy ludzką kulturą w ogóle” – powiedział rozmówca PAP.
„ChatGPT nie umie (na razie!) odróżnić prawdy od fałszu, nie ma wyczucia rzeczywistości, tworzy jedynie kolejne warstwy rzeczywistości językowej. Ale za pomocą opowieści kompletnie fikcyjnych także można zarządzać ludzką wyobraźnią, mobilizować lub demobilizować do aktywności. Wygląda na to, że niebawem – o ile już się tak nie stało – systemy sztucznej inteligencji będą w stanie tworzyć opowieści o wiele bardziej kuszące, perswazyjnie efektywniejsze, niż to, co potrafią zaoferować ludzie” – zwrócił uwagę profesor.
„Możemy stać się ofiarami albo tych, którzy będą dysponentami systemów sztucznej inteligencji, albo – jeśli się ona zautonomizuje – jej samej. W obu przypadkach oddziaływanie negatywne może być równie silnie” - ostrzegł.
Reklama
Mówiąc o tym, jak należy reagować na możliwie niekontrolowany rozwój technologii, prof. Zybertowicz przypomniał o „podpisanym przez tysiące badaczy apelu o wprowadzenie moratorium, czyli powstrzymanie badań nad sztuczną inteligencją na minimum pół roku, zanim eksperci i politycy zastanowią się, jak dalsze badania można prowadzić w sposób bezpieczny dla ludzkości”.
„Moim zdaniem nie ma obecnie dla ludzkości większego zagrożenia niż niekontrolowany rozwój sztucznej inteligencji. W odróżnieniu od wcześniej budowanych przez ludzkość technologii, ta ma potencjał kompletnego wymknięcia się spod kontroli” – zaznaczył rozmówca PAP.
„W polskich kręgach analitycznych prowadzone są pilne badania. Także w Centrum Badań nad Bezpieczeństwem Akademii Sztuki Wojennej w Warszawie przygotowujemy pogłębiony raport z rekomendacjami dla kierownictwa państwa” – podsumował prof. Zybertowicz.Jakub Bawołek (PAP)
jbw/ jar/