Etyka i przyszłość AI - dyskusja ze studentami SWPS
Studia podyplomowe AI na SWPS
Od kilku miesięcy prowadzę na SWPS studia podyplomowe „AI – Sztuczna Inteligencja w Praktyce i Biznesie”. Zdecydowana większość zajęć ma charakter praktyczny. Omawiamy konkretne narzędzia AI i rozmaite sposoby ich zastosowania w różnych zadaniach. Spotykam się z grupą kilkunastu studentów w weekendy, w formule zdalnej.
Ostatni zjazd przed semestralnym egzaminem był jednak inny niż dotychczasowe, bo dotyczył przede wszystkim zagadnień teoretycznych: etyki, wyzwań i przyszłości sztucznej inteligencji. Są to tematy tak szerokie i tak emocjonujące, że można o nich mówić godzinami. Nic dziwnego, że nasze 16 godzin (sobota i niedziela) przeleciało błyskawicznie w nurcie żywej dyskusji.
AI - trudne pytania
Etyka sztucznej inteligencji rodzi mnóstwo pytań, między innymi:
- Czy automatyzacja pracy stanie się kompletna, eliminując zawody wymagające ludzkiego udziału?
- Jakie przewagi ma lekarz-człowiek nad lekarzem opartym na AI?
- Czy sztuczna inteligencja powinna zastąpić ludzi na polach bitew?
- Kto ponosi odpowiedzialność za narzędzia AI i podejmowane przez nie decyzje?
- Kto jest autorem pracy naukowej napisanej przy pomocy AI?
- Jakie są pozytywne i negatywne konsekwencje wykorzystywania AI do monitorowania (a nawet inwigilowania) ludzi?
- Czy AI ułatwia wprowadzanie rządów autorytarnych?
- Czy AI może podjąć decyzję o eutanazji osoby, która sama nie jest w stanie takiej decyzji podjąć?
Rozważania na te i podobne tematy zajęły nam zdecydowaną większość dwóch dni przeznaczonych na zajęcia. Dyskusje były wyjątkowo ożywione – studenci prezentowali różne perspektywy i argumenty, często skrajnie odmienne. W wielu kwestiach nie osiągnęliśmy jednomyślności, co zresztą wcale mnie nie dziwi.
Jedna z przewodnich myśli, która pojawiła się w tej dyskusji, dotyczyła nieprzewidywalności rozwoju AI i jego konsekwencji dla ludzkości. To właśnie ta niepewność, brak transparentności i „obcość” sztucznej inteligencji sprawiają, że wiele osób obawia się, iż w pewnym momencie ta technologia może się wymknąć spod naszej kontroli.
AI - trudne odpowiedzi
Słusznie Andrzej Dragan zauważa, że skończyła się możliwość przewidzenia przyszłości – w kontekście AI ta teza wydaje się szczególnie trafna. Niemniej jednak ludzie wciąż próbują „zajrzeć w przyszłość”, by chronić się przed zagrożeniami i wykorzystywać nadarzające się szanse. Nasz instynkt samozachowawczy nie pozwala nam na bierność.
Szanując ograniczenia naszego ludzkiego poznania oraz mądrość Dragana, a jednocześnie poddając się temu instynktowi przetrwania, pozwalam sobie przedstawić pewne odpowiedzi na trudne pytania o przyszłość AI. Podzielę się też kilkoma przemyśleniami na temat wyzwań, które już dziś są bardzo aktualne.
Czy automatyzacja pracy stanie się kompletna, eliminując zawody wymagające ludzkiego udziału?
Jestem przekonany, że większość obecnych zawodów zostanie w pełni zautomatyzowana. Pozwoli to ludziom uwolnić się od jarzma przymusowej pracy za wynagrodzenie, które często ledwo wystarcza, by związać koniec z końcem. Choć społeczne i gospodarcze konsekwencje będą burzliwe, w ogólnym rozrachunku moim zdaniem wyjdziemy na tym na plus. Nieco więcej na ten temat opisałem w artykule Pełna automatyzacja pracy dzięki AI: polemika z dr Przegalińską. Planuję też osobny, kompleksowy artykuł na ten temat.
Jakie przewagi będzie mieć lekarz-człowiek nad lekarzem opartym na AI?
Na to pytanie odpowiadam w ten sposób:
Ciekawe jest, że jeden z pierwszych komentarzy pod tym postem zawierał link do rozmowy z ChatGPT, który poprawnie zdiagnozował problem i zalecił badanie nerek. Pozycja numer 3 – https://chatgpt.com/share/6795f82c-cca8-8011-80c4-8aa72fdad19a
Czy sztuczna inteligencja powinna zastąpić ludzi na polach bitew?
Nie mam wątpliwości, że tak – pod warunkiem, że AI walczyłaby po obu stronach, a ludzie w ogóle nie braliby już udziału w konfliktach. Ideał, prawda? Oczywiście, jeśli jednak doszłoby do agresji na Polskę, to chciałbym, żeby AI stała przede wszystkim po naszej stronie.
Kto będzie odpowiedzialny za narzędzia AI i jej decyzje?
Przy okazji rozważań o AI wspierającej lub zastępującej lekarzy, pojawiło się pytanie: kto odpowiada za błędy podejmowane przez AI? Odpowiedź jest dość prozaiczna: w praktyce odpowiada ubezpieczyciel podmiotu zatrudniającego lekarzy – i tych ludzkich, i tych cyfrowych. Szpital jest ubezpieczony od błędów popełnianych przez swoich pracowników. Za błąd konkretnego lekarza odpowiada właśnie ten lekarz, ale odszkodowanie wypłacane jest z polisy. Tak samo będzie w przypadku sztucznej inteligencji: za błąd AI formalnie odpowie dany model, ale finansową odpowiedzialność poniesie ubezpieczyciel. Oczywiście to nie wyklucza roszczeń szpitala w stosunku do dostawcy danego modelu AI, jeśli przewiduje to licencja lub umowa.
Kto jest autorem pracy naukowej napisanej przy pomocy AI?
Nie mam na to oczywistej odpowiedzi. Obecne przepisy i codzienna praktyka stanowią, że treści wygenerowane przez ChatGPT należą do użytkownika, czyli do osoby, która je wywołała. W związku z tym, jeśli praca została wygenerowana przez ChatGPT, mogę stwierdzić, że to ja jestem jej autorem. Kłóci się to jednak z logiką, bo im mniej wysiłku włożyłem w przygotowanie dobrego promptu, tym bardziej absurdalne wydaje się przypisywanie mi autorstwa. To trudny temat i sam jestem ciekaw, jak ostatecznie będzie on rozwiązany w przyszłości.
Czy AI może podjąć decyzję o eutanazji osoby, która sama decyzji podjąć nie może?
Moja odpowiedź jest tu krótka: jeśli w wiarygodnych badaniach wyjdzie na jaw, że AI popełnia w tym zakresie mniej błędów niż człowiek, to decyzję należy przekazać AI. Statystyka jest bowiem najuczciwszym miernikiem jakości podejmowanych decyzji. Problem w tym, jak w ogóle weryfikować „skuteczność” AI przy eutanazji. Temat z pewnością bardzo delikatny, ale prędzej czy później podobne dylematy staną się codziennością.
AI - trudne odpowiedzi
Z tymi pytaniami, wątpliwościami i przemyśleniami mierzyliśmy się podczas ostatniego zjazdu. I muszę przyznać, że choć jedni byli bardziej optymistyczni, a inni bardziej ostrożni, wszyscy mieliśmy poczucie, że przyszłość AI to ogromna niewiadoma – jednocześnie fascynująca i niepokojąca.
Z jednej strony widać, jak AI może rozwiązywać problemy, z którymi do tej pory nie radziliśmy sobie jako gatunek, albo radziliśmy sobie ledwo-ledwo. Z drugiej strony pojawiają się całkiem uzasadnione obawy o prywatność, wolność słowa, odpowiedzialność za decyzje podejmowane przez cyfrowych „lekarzy” czy „żołnierzy”, a w skrajnych przypadkach o to, czy AI nie wymknie się nam spod kontroli zupełnie. Każdy z uczestników miał własne przemyślenia, bardzo często rozbieżne – lecz właśnie dzięki temu nasza dyskusja była tak wartościowa.
Prawda jest taka, że nikt z nas nie ma szklanej kuli, która pokaże, jak ta przyszłość naprawdę się ukształtuje. Ale chyba wszyscy czujemy, że stoimy u progu wielkich przemian, które mogą przynieść niesamowite możliwości, ale i zmusić nas do zupełnie nowego spojrzenia na kwestie etyki, prawa czy odpowiedzialności.
Konsekwencją powyższego jest to, że rozmowy o AI – choć momentami burzliwe – potrafią być szalenie inspirujące. Sam nie mogę się doczekać, jak temat się rozwinie i co tak naprawdę wydarzy się za rok, dwa czy pięć lat. Wierzę, że warto o tym rozmawiać jak najwięcej i jak najotwarciej, bo tylko w ten sposób możemy nauczyć się poruszać po tym wciąż niezbadanym terytorium.
Dopóki jednak AI nie zdominowało naszego życia i dopóki wciąż rekrutujemy ludzi a nie agentów AI, dopóty muszę wracać do pracy nad doskonaleniem mojego ukochanego cyfrowego dziecka – systemu ATS Element! 🙂
Najczęściej czytane:
- Darmowe ogłoszenia o pracę i największa lista źródeł kandydatów – największa w Polsce lista bezpłatnych i płatnych źródeł kandydatów
- Praca w HR – najnowsze oferty pracy i aktualne średnie wynagrodzenia w branży HR
- Akademia Rekrutacji – zbiór wiedzy na temat rekrutacji oraz raporty z rynku pracy.
- Gowork – jak reagować na negatywne opinie o pracodawcach – Kompleksowy poradnik dla pracodawców.
- Sztuczna inteligencja w rekrutacji i Chat GPT-3 – wszystko co musisz wiedzieć o najnowszej wersji sztucznej inteligencji i jej możliwych zastosowaniach, także w rekrutacji.
- RODO w rekrutacji – sourcing, direct search, ogłoszenia. Wszystko co musisz wiedzieć – kompleksowy poradnik RODO w rekrutacji z naciskiem na działania typu direct search / sourcing.
- Wszystko o systemach ATS – poradnik wyboru systemu rekrutacyjnego

Maciej Michalewski
Founder & CEO @ Element
Ostatnie wpisy:
Prawo w HR – najciekawsze orzeczenia Sądu Najwyższego
Orzeczenia Sadu Najwyższego rzutują na rozstrzygnięcia sądów niższych instancji. Oto lista ciekawych rozstrzygnięć SN w obszarze prawa pracy.
Czy AI naprawdę potrafi być kreatywne?
Czy AI jest kreatywne, czy tylko symuluje twórczość? To temat dyskusji, którą niedawno prowadziłem. Oto, do jakich wniosków doszliśmy.
Zdjęcie w CV wpływa na ocenę rekrutera – co z tym zrobić?
Zdjęcie w CV wpływa na ocenę rekrutera – co z tym zrobić? Oceniamy kandydata po wyglądzie Czytam w newsletterze Hung Lee, że pojawiły się badania
Etyka i przyszłość AI – dyskusja ze studentami SWPS
Etyka i przyszłość AI – dyskusja ze studentami SWPS Studia podyplomowe AI na SWPS Od kilku miesięcy prowadzę na SWPS studia podyplomowe „AI – Sztuczna
Jak AI zmienia firmy? Konkretne decyzje mówią więcej niż raporty
Jak AI wpłynie na organizacje i czego HR’y mają się spodziewać w przyszłości w kontekście wdrożeń AI? Odpowiedzi płyną z konkretnych działań.
Raport ofert pracy – XII 2024: miesiąc na plus, średnia lekko w dół
Raport ofert pracy – grudzień do grudnia na dużym plusie, choć średnia z trzech miesięcy lekko spadała. Jestem umiarkowanym optymistą.