Wstęp

Społeczeństwo, tradycyjnie definiowane jako zbiorowość ludzi połączonych trwałymi więziami społecznymi, wspólną kulturą i zorganizowaną strukturą (Turner, 1988), ulega nieustannej ewolucji pod wpływem zmieniających się warunków historycznych, politycznych i technologicznych. Wraz z nadejściem ery cyfrowej i rozwinięciem globalnej sieci komunikacyjnej, definicja społeczeń-stwa przeszła transformację w kierunku koncepcji społeczeństwa informacyjnego. Manuel Castells (2000) definiuje społeczeństwo informacyjne jako formę organizacji społecznej, w której generowanie, przetwarzanie i przekazywanie informacji stają się podstawowym źródłem produktywności i władzy. W codziennym życiu społeczeństwo informacyjne przekształca sposób funkcjonowania jednostek i grup. Dostęp do informacji, umiejętność jej przetwarzania i wykorzystywania kształtują nie tylko pozycję społeczną, ale także decyzje, zachowania i rezultaty. Platformy społecznościowe, takie jak Facebook, Twitter czy Instagram, mają obecnie ponad 4,9 miliarda użytkowników globalnie i zmieniają sposób komunikacji, umożliwiając nie tylko natychmiastową wymianę informacji, ale także kreując nowe formy relacji międzyludzkich. Na przykładzie procesów demokratycznych widoczny jest wpływ mediów społecznościowych na wybory – kandydaci korzystają z platform do bezpośredniego dotarcia do wyborców, często z pominięciem tradycyjnych mediów. Jednocześnie fałszywe informacje mogą destabilizować zaufanie społeczne.

W obszarze edukacji dostęp do treści online rewolucjonizuje naukę – około 500 milionów uczniów korzysta z platform e-learningowych, co zwiększa dostępność wiedzy niezależnie od miejsca zamieszkania. Natomiast gospodarka staje się coraz bardziej zależna od danych – sektor digitalizacji usług wygenerował w 2022 roku globalne przychody przekraczające 10 bilionów dolarów. Współczesne społeczeństwo opiera się na takich narzędziach, a rola informacji staje się kluczowym elementem organizacji codziennego życia, co uwidacznia się zarówno w szansach rozwoju, jak i w wyzwaniach związanych z zarządzaniem dynamicznie zmieniającym się światem cyfrowym. Jednakże szeroki dostęp do informacji niesie ze sobą także istotne wyzwania etyczne. Manipulacja treściami, rozpowszechnianie fałszywych informacji (fake news, deepfakes), czy wykradanie danych osobowych budzą wątpliwości dotyczące odpowiedzialności i granic wolności w społeczeństwie informacyjnym. W kontekście prywatności pojawia się pytanie, kto i w jakim stopniu ma prawo kontrolować dane użytkowników oraz jak zapobiegać ich nadużyciu. Równocześnie rozwijają się dyskusje nad regulacjami, które mają minimalizować zagrożenia wynikające z nieetycznych praktyk, balansując między postępem technologicznym a ochroną fundamentalnych praw jednostki. W efekcie, społeczeństwo informacyjne staje przed koniecznością refleksji i wypracowania norm etycznych dostosowanych do nowych realiów cyfrowych.

Jednakże, obecna fala innowacji technologicznych, skoncentrowana wokół sztucznej inteligencji (AI), wnosi nową jakość w transformację społeczną. AI, rozumiana jako zdolność maszyn do wykonywania zadań, które tradycyjnie wymagały ludzkiej inteligencji, takich jak uczenie się, rozumowanie, rozwiązywanie problemów i rozpoznawanie wzorców, przenika coraz głębiej w różne sfery życia społecznego, gospodarczego i politycznego. Ta bezprecedensowa penetracja AI stwarza zarówno obiecujące możliwości rozwoju, jak i generuje poważne zagrożenia i wyzwania, wymagające kompleksowej analizy i przemyślanych strategii adaptacyjnych.

Transformacja AI: fundamentalna zmiana dla społeczeństwa

Rozwój AI stanowi fundamentalną zmianę dla społeczeństwa, ponieważ wpływa na podstawowe mechanizmy funkcjonowania gospodarki, rynku pracy, systemów edukacji, opieki zdrowotnej, administracji publicznej, a nawet na nasze interakcje społeczne i sposób postrzegania świata. W przeciwieństwie do wcześniejszych fal automatyzacji, które koncentrowały się na zastępowaniu manualnej pracy pracą maszyn, AI ma potencjał do automatyzacji również zadań wymagających kompetencji kognitywnych i kreatywności. To prowadzi do nowego podziału pracy między ludź-mi a maszynami, generując zarówno nowe możliwości zatrudnienia, jak i groźbę bezrobocia technologicznego.

Z perspektywy socjologicznej, AI wpływa na dynamikę władzy i nierówności społecznych. Dostęp do technologii AI, umiejętność jej wykorzystania i kontrola nad algorytmami stanowią nowe źródło przewagi konkurencyjnej i potencjalnej dominacji. Społeczeństwo podzielone na tych, którzy posiadają kompetencje i zasoby do wykorzystania AI, i tych, którzy są od niej wykluczeni, może stać się bardziej spolaryzowane i podatne na konflikty.

Z punktu widzenia ekonomicznego, AI rewolucjonizuje modele biznesowe, procesy produkcyjne i strategie marketingowe. Firmy, które potrafią efektywnie wdrożyć rozwiązania AI, mogą osiągnąć znaczną przewagę konkurencyjną, zwiększyć efektywność i obniżyć koszty. Jednakże, ten proces może również prowadzić do koncentracji kapitału w rękach nielicznych korporacji technologicznych, co stwarza ryzyko monopolizacji i ograniczenia innowacji.

Zagrożenia i wyzwania związane z rozwojem AI

Rozwój AI niesie ze sobą szereg poważnych zagrożeń i wyzwań, które wymagają pilnego rozwiązania:

  • Bezrobocie technologiczne: automatyzacja zadań, w tym tych wymagających wysokich kwalifikacji, może prowadzić do utraty miejsc pracy w wielu sektorach gospodarki. Jak wskazuje Frey i Osborne (2013), około 47% zawodów w Stanach Zjednoczonych jest zagrożonych automatyzacją w perspektywie najbliższych dekad (Frey, Osborne, 2013). Konieczne jest zatem opracowanie strategii adaptacyjnych, takich jak przekwalifikowanie zawodowe, edukacja ustawiczna i rozwój nowych umiejętności, aby przygotować pracowników do funkcjonowania na nowym rynku pracy.

  • Pogłębianie nierówności społecznych: dostęp do technologii AI i umiejętność jej wykorzystania mogą pogłębić istniejące nierówności społeczne. Osoby o niskich kwalifikacjach i ograniczonym dostępie do edukacji mogą być wykluczone z rynku pracy i skazane na marginalizację. Rozwój technologii, w tym szczególnie AI, również w sposób widoczny wpłynął także na ekonomiczną strukturę społeczeństwa. Według danych Forbes (2023), w roku 1993 tylko około 10% setki najbogatszych osób na świecie swoje fortuny zawdzięczało branży technologicznej, nato-miast obecnie ponad 50% tej listy zajmują osoby związane z gigantami technologicznymi, jak Bill Gates, Elon Musk, Jeff Bezos czy Mark Zuckerberg. W sektorze surowców i paliw kopalnych nastąpił zaś znaczący spadek przedstawicieli – liczba miliarderów związanych z tym sektorem zmniejszyła się w analogicznym czasie z niemal 30% do ok. 10% (World Inequality Database, 2022).

  • Manipulacja informacją i dezinformacja: AI może być wykorzystywana do generowania fałszywych informacji i dezinformacji na dużą skalę, co zagraża demokracji i stabilności spo-łecznej. „Deepfakes”, czyli realistyczne fałszywe nagrania wideo i audio, mogą być używane do oczerniania osób publicznych, siania paniki i podsycania konfliktów. Przykładem może być klip wideo stworzony przez zespół artystyczny z zastosowaniem technologii deepfake, w celu uwidocznienia zagrożeń związanych z dezinformacją. W klipie wygenerowany cyfrowo prezydent Barack Obama słownie dezawuuje „konkurencyjnych” polityków i nawołuje do podziałów spo-łecznych. Deepfake skutkuje więc zaostrzeniem napięć społecznych i podważeniem zaufania do rzeczywistych wypowiedzi publicznych (Westerlund, 2019).

  • Kwestie etyczne związane z autonomią maszyn: wraz z rozwojem autonomicznych systemów AI pojawiają się pytania o odpowiedzialność za ich działania. Kto ponosi odpowiedzialność, jeśli autonomiczny pojazd spowoduje wypadek? Jak zapewnić, że decyzje podejmowane przez algorytmy są sprawiedliwe i niedyskryminujące? Obecne regulacje dotyczące takich systemów wciąż się rozwijają, ale w niektórych krajach istnieją już konkretne rozwiązania prawne. Na przykład, w Niemczech wprowadzono przepisy nakładające odpowiedzialność na producentów pojazdów autonomicznych, natomiast w Stanach Zjednoczonych regulacje w poszczególnych stanach, takich jak Kalifornia, koncentrują się na obowiązkach użytkowników.

  • Utrata prywatności: rozwój systemów rozpoznawania twarzy, analizy danych osobowych i monitoringu aktywności online stwarza zagrożenie dla prywatności i wolności obywatelskich. Według raportu opublikowanego przez Amnesty International w 2020 roku, 71% osób używających technologii rozpoznawania twarzy wyraża obawy dotyczące naruszeń prywatności. Algorytmy mogą być wykorzystywane do profilowania ludzi i przewidywania ich zachowań, co prowadzi do ograniczenia ich autonomii i swobody podejmowania decyzji (O’Neil, 2016).

  • Cyberbezpieczeństwo: systemy AI są podatne na ataki hakerskie i manipulacje. Wprowadzenie złośliwego kodu do algorytmu może spowodować poważne szkody, takie jak naruszenie bezpieczeństwa danych, zakłócenie funkcjonowania infrastruktury krytycznej i manipulacja rynkiem finansowym.

  • Bias algorytmiczny: algorytmy AI są szkolone na danych, w tym danych historycznych, które mogą zawierać bias, czyli uprzedzenia i stereotypy. W rezultacie, systemy AI mogą reprodukować i wzmacniać te uprzedzenia, prowadząc do dyskryminacji i niesprawiedliwych decyzji. Wielokrotnie wskazywano np. w przypadku rekrutacji, że algorytmy faworyzują kandydatów na podstawie płci lub rasy, jeśli historyczne dane dotyczące zatrudnienia na tym lub równorzędnych stanowiskach zawierały informacje o dominującej liczbie zatrudnionych kandydatów określonej płci i rasy (Rolecki, 2020).

  • Halucynacje AI: oznaczają tendencję do generowania przez modele LLM nieprawdziwych fragmentów tekstu w celu wypełnienia luk w przygotowywanej odpowiedzi. Tekst halucynacyjny, choć płynny i naturalny, jest niezgodny z faktami i często nonsensowny. Błędne odniesienia, treści i stwierdzenia mogą być przeplatane prawdziwymi informacjami i przedstawiane w sposób przekonujący, utrudniając ich identyfikację bez weryfikacji. Halucynacje, podobnie jak w psychologii, trudno odróżnić od prawdziwych spostrzeżeń, występując zarówno w tekstach, jak i w dużych, zunifikowanych modelach (Kreft i in., 2024).

Potencjał rozwoju i wykorzystanie AI dla rozwoju społecznego

Pomimo wyzwań i zagrożeń, AI oferuje ogromny potencjał rozwoju i może być wykorzystywana do rozwiązywania globalnych problemów i poprawy jakości życia:

  • Innowacje i wzrost gospodarczy: AI może przyspieszyć proces innowacji, tworzyć nowe produkty i usługi, zwiększać efektywność produkcji i obniżać koszty.

  • Poprawa opieki zdrowotnej: AI może być wykorzystywana do diagnozowania chorób, personalizacji leczenia, rozwoju nowych leków i terapii oraz poprawy jakości opieki nad pacjentami.

  • Poprawa efektywności systemu edukacji: AI może personalizować proces uczenia się, dostosowywać treści edukacyjne do indywidualnych potrzeb uczniów, automatyzować zadania administracyjne i poprawiać efektywność nauczania.

  • Rozwiązywanie globalnych problemów: AI może być wykorzystywana do walki ze zmianami klimatycznymi, zarządzania zasobami naturalnymi, zwalczania głodu i ubóstwa oraz poprawy bezpieczeństwa i stabilności na świecie.

  • Ułatwianie codziennego życia: AI może automatyzować rutynowe zadania, poprawiać komfort życia i zwiększać produktywność w pracy i w domu.

Konieczność regulacji i etycznego rozwoju AI

Rozwój sztucznej inteligencji już dzisiaj pokazuje, że konieczna jest natychmiastowa, powszechna, a co najważniejsze skuteczna regulacja zasad jej używania. Zastosowanie AI w systemach monitorowania i inwigilacji naruszające prywatność obywateli, wykorzystanie algorytmów w procesach rekrutacyjnych prowadzące do dyskryminacji, czy wreszcie rozwój autonomicznych systemów broni, to najbardziej oczywiste, choć nie jedyne przykłady wskazujące, jak istotne jest wprowadzenie ram prawnych, aby zapewnić, że rozwój AI będzie przebiegał w sposób odpowiedzialny i humanitarny.

Aby maksymalizować korzyści i minimalizować zagrożenia związane z rozwojem AI, konieczne jest opracowanie kompleksowych regulacji prawnych i etycznych. Jak podkreśla N. Bostrom kluczowe jest, abyśmy rozwijali AI w sposób odpowiedzialny i z uwzględnieniem jej potencjalnych skutków dla ludzkości (Bostrom, 2014). Regulacje te powinny obejmować:

  • Ochronę prywatności: wprowadzenie przepisów ograniczających nieuprawnione gromadzenie i wykorzystywanie danych osobowych przez systemy AI. Ochrona prywatności dotyczyć musi nie tylko działań podmiotów gospodarczych (gromadzenie danych przez gigantów technologicznych takich jak Google, Meta, X), ale także działań poszczególnych państw. Najbardziej jaskrawym przykładem jest chiński system zaufania społecznego, który jest wdrażany od 2014 roku. Jest to mechanizm, w którym obywatele na podstawie danych gromadzonych przez systemy wspierane przez AI otrzymują punkty za określone zachowania (np. przestrzeganie prawa, aktywność społeczną, płacenie podatków), a następnie na podstawie zgromadzonych punktów podejmowane są decyzje administracyjne lub przyznawane są różne korzyści (np. dostęp do pożyczek, możliwość podróżowania). Szerokie stosowanie takich rozwiązań w sposób oczywisty prowadzi do graniczenia swobód obywatelskich i tworzenia społeczeństwa opartego na strachu oraz wykluczania z życia społecznego osób z niską punktacją.

  • Przejrzystość algorytmów: zapewnienie, że algorytmy AI są zrozumiałe i podlegają kontroli publicznej, jest kluczowe np. w branży finansowej, gdzie systemy decydujące o przyznawaniu kredytów muszą działać w sposób przejrzysty i sprawiedliwy. Bez przejrzystości algorytmów trudno jest określić, jakie dane są zbierane, w jaki sposób są wykorzystywane oraz kto ma do nich dostęp. Dodatkowo jeśli algorytmy działają w sposób, którego ludzie nie są w stanie zrozumieć, trudno jest zidentyfikować źródło błędów i wprowadzić konieczne korekty. Obywatele mogą utracić zaufanie do instytucji publicznych i komercyjnych, które korzystają z nieprzejrzy-stych algorytmów, co będzie prowadzić do frustracji i oporu społecznego.

  • Odpowiedzialność za działania AI: ustalenie jasnych zasad odpowiedzialności za szkody wyrządzone przez systemy AI. Dzisiaj trudno ustalić, kto ponosi odpowiedzialność za działania AI — czy to twórcy algorytmu, użytkownicy, czy też firmy, które wdrażają technologie. W przypadku błędów, czy doprowadzenia do skutków, które mogą być niekorzystne dla ludzi, odpowiedzialność może być niejasna. Należy przy tym pamiętać, że decyzje AI często są podejmowane w interakcji z ludźmi. Wprowadza to dodatkowy element zmienności i nieprzewidywalności. Ludzie mogą wpływać (świadomie lub nieświadomie) na wyniki systemów AI poprzez swoje działania lub decyzje, a to sprawia, że analiza odpowiedzialności staje się jeszcze bardziej skomplikowana.

  • Zwalczanie biasu algorytmicznego: Wprowadzenie mechanizmów identyfikacji i eliminacji biasu z algorytmów AI. Należy przy tym pamiętać, że rozpoznanie biasu algorytmicznego może być niemożliwe bez spełnienia wymienionych powyżej warunków: ochrony prywatności, przejrzystości algorytmów oraz ustalenia odpowiedzialności za ich działanie.

  • Etyczny rozwój: opracowanie kodeksów etycznych i standardów postępowania dla projektantów, programistów i użytkowników systemów AI. Etyczny rozwój AI wymaga zharmonizowanego podejścia, które uwzględnia społeczne, prawne i technologiczne aspekty rozwoju tej technologii. Kluczowe jest dążenie do stworzenia ram etycznych, które będą promować przejrzystość, odpowiedzialność i zaufanie, a jednocześnie minimalizować ryzyko dyskryminacji i nadużyć. Współpraca między różnymi interesariuszami, w tym naukowcami, inżynierami, decydentami i przedstawicielami społeczeństwa, jest niezbędna do osiągnięcia tych celów.

  • Edukację i świadomość społeczną: zwiększenie świadomości społecznej na temat AI i jej potencjalnych skutków. AI ma potencjał do przekształcania rynków pracy i sposobów życia. Edukacja pomaga ludziom dostosować się do tych zmian i znaleźć nowe możliwości zawodowe. Jednocześnie wiedza o zagrożeniach związanych z AI, takich jak naruszenie prywatności, dyskryminacja czy manipulacja, pozwala obywatelom podejmować świadome decyzje dotyczące korzystania z technologii. Edukacja i wzrost świadomości społecznej dotyczące wykorzystania AI są kluczowe dla rozwoju i stosowania AI w sposób, który jest zgodny z wartościami etycznymi oraz chroni interesy poszczególnych jednostek oraz całych społeczności.

  • Ewolucję rynku pracy i kształcenia powszechnego: rozwój AI z cała pewnością zrewolucjonizuje rynek pracy, przesuwając akcent z rutynowych zadań na kreatywność, krytyczne myślenie i kompetencje cyfrowe. Dlatego powszechna edukacja musi się przekształcić, stawiając na nauczanie przez całe życie i personalizację procesu nauczania. AI zastąpi zawody wymagające rutynowych działań, ale stworzy nowe, wymagające kompetencji technicznych (np. w obszarze analizy danych i interpretacji wyników, podstaw modeli językowych i AI i rozumienia ograniczeń modeli, prywatności i bezpieczeństwa danych, zarządzania projektami AI, czy wykorzystania narzędzi AI w codziennej pracy) oraz kompetencji miękkich (np. w zakresie krytycznego myślenia i oceny ryzyka, badania źródeł danych i walidacja wyników, współpraca interdyscyplinarna, interpretacja i komunikowanie wyników AI w przystępny sposób czy zarządzanie zmianą i adaptacja do nowych procesów) (Bessen, 2018; OECD, 2019).

Próby formalnego uregulowania zasad funkcjonowania AI podjął Parlament Europejski przyjmując tzw. AI Act (Parlament Europejski, 2024). Zakłada on klasyfikację wszystkich systemów aktywnie wykorzystujących AI w oparciu o poziom ryzyka jaki stwarzają dla praw, bezpieczeństwa i dobrobytu obywateli UE, ze szczególnym uwzględnieniem systemów używanych w infrastrukturze krytycznej (np. energia, transport), w decyzjach wpływających na prawa obywateli (zatrudnienie, edukacja, systemy wymiaru sprawiedliwości) oraz w opiece zdrowotnej, administracji publicznej i bezpieczeństwie. Główne założenia AI Act to:

  • podejście do AI oparte na zarządzaniu ryzykiem – systemy klasyfikowane są według poziomu ryzyka, jakie stwarzają, ze szczególnym uwzględnieniem systemów wysokiego ryzyka, a dostawcy systemów wysokiego ryzyka muszą przeprowadzać ocenę zgodności i wdrażać systemy zarządzania ryzykiem,

  • zachowanie przejrzystości systemów AI - wymóg projektowania systemów w sposób umożliwiający efektywny nadzór ludzki, zwłaszcza w krytycznych zastosowaniach. Dodatkowo systemy wysokiego ryzyka muszą posiadać szczegółową dokumentację techniczną i instrukcje dla użytkowników,

  • ochrona praw podstawowych - zapewnienie, że systemy AI respektują prawa podstawowe, włączając ochronę przed dyskryminacją,

  • powstanie Europejskiego Urzędu ds. Sztucznej Inteligencji - instytucji nadzorującej wdrażanie rozporządzenia oraz posiadającej specjalistyczne kompetencje i uprawnienia kontrolne.

AI Act zakłada również specjalne przepisy dla modeli AI ogólnego przeznaczenia (np. Chat GPT), które mimo że same nie stanowią systemów AI, będą podlegać regulacjom.

Wnioski

Transformacja technologiczna związana z rozwojem AI stanowi jeden z kluczowych czynników kształtujących współczesną rzeczywistość społeczną, gospodarczą i technologiczną. Jak wynika z przedstawionej analizy, transformacja związana z AI niesie ze sobą zarówno ogromne możliwości, jak i poważne zagrożenia. Do najistotniejszych wyzwań należy stworzenie kompleksowych regulacji prawnych i etycznych dotyczących rozwoju AI. Przepisy powinny chronić prywatność (Cohen, 2019), zapewniać przejrzystość algorytmów, odpowiedzialność za działania systemów AI (Calo, 2016), przeciwdziałać algorytmicznemu biasowi (Barocas i in., 2019) oraz zapewnić przyjazne środowisko dla korzystania z nowych rozwiązań. Chociaż AI Act jest krokiem w dobrym kierunku, to obejmuje swoją „mocą sprawczą” wyłącznie państwa Unii Europejskiej tymczasem rozwój AI to dzisiaj przede wszystkim USA i Chiny, czyli kraje, które tradycyjnie ignorują europejskie, czy szerzej rozumiane - postępowe rozwiązania (np. Protokół z Kioto – USA nie ratyfikowały, Chiny ratyfikowały, ale nie przestrzegają).

Ogromną rolę w skutecznym wdrażaniu rozwiązań AI odgrywa administracja publiczna (lokalna, krajowa, europejska). Dysponując możliwościami tworzenia prawa oraz olbrzymimi zasobami w postaci finansów publicznych, może ona tworzyć inkluzywne otoczenie rozwoju AI. Niestety, analiza wyników badań polskiej administracji publicznej (Nowak, i in., 2023) (Nowak, i in., 2024) wskazuje, że podejmowane działania mają najczęściej charakter formalny i ograniczają się do realizacji przepisów prawa wymuszanych potencjalnymi sankcjami. Takie podejście musi się natychmiast zmienić, aby AI nie stała się kolejnym globalnym „czarnym łabędziem” (Taleb, 2007).

Jednak AI oferuje jednocześnie bezprecedensowe możliwości w zakresie rozwiązywania global-nych problemów, takich jak zmiany klimatyczne, ochrona zdrowia czy optymalizacja zarządzania zasobami. Aby w pełni wykorzystać ten potencjał, niezbędne jest stworzenie spójnych ram prawnych i etycznych, które zapewnią odpowiedzialny rozwój technologii. Pamiętać przy tym należy, że kwestie te dotyczą nie tylko odpowiedzialności za samodzielne działanie maszyn (np. autonomicznych pojazdów), ale także, a nawet przede wszystkim kwestii zakresu samodzielności autonomicznych systemów decyzyjnych. Już dzisiaj musimy zdecydować, czy algorytmy AI będą mogły bez „kontrasygnaty” człowieka podejmować decyzje, które potencjalnie mogą wpływać na przyszłość życia na Ziemi. Kluczową rolę odgrywa również edukacja społeczna, zwiększająca świadomość na temat korzyści i ryzyk związanych z AI.

Podsumowując, przyszłość AI zależy od holistycznego podejścia, łączącego perspektywy technologiczne, ekonomiczne i socjologiczne. Tylko poprzez współpracę na poziomie globalnym, uwzględniającą interesy wszystkich grup społecznych, możliwe będzie wykorzystanie AI jako narzędzia budowania bardziej sprawiedliwego i zrównoważonego świata.