Zagłada czy ocalenie ludzkości AI? Polemika z profesorem Zybertowiczem

28 kwietnia 2024

Wstęp

Na discordzie Horyzont AI, gdzie gromadzi się społeczność zainteresowana wykorzystywaniem i rozwojem narzędzi opartych o sztuczną inteligencję, zwrócono mi uwagę na wystąpienie profesora Andrzeja Zybertowicza, w którym tenże przedstawił katastroficzną wizję rozwoju sztucznej inteligencji.
 
W pierwszej chwili niechętnie odniosłem się do propozycji obejrzenia materiału. Pesymistycznych wizji nasłuchałem się już wiele. Koledzy z discorda zachęcili mnie jednak skutecznie i przesłuchałem całość wypowiedzi profesora. Poniżej moje odniesienie się do zarzutów, jakie profesor stawia wobec techno-optymistycznej wizji świata, której jestem zwolennikiem.
 
Aktualizacja z 6.06.2024 – profesor odpowiedział na moją polemiką, a ja odpowiedziałem już na odpowiedź profesora. Jeśli interesuje Cię dalsza polemika, to po przeczytaniu poniższego materiału zachęcam do prześledzenia tego wątku na platformie X – https://x.com/Maciej_M/status/1787578065767321650

Gdybamy

Nikt, ani ja, ani profesor Zybertowicz, ani Sam Altman, Elon Musk czy ktokolwiek inny na świecie, nie wie, jak będzie wyglądała przyszłości w ogóle i w szczególności przyszłość w kontekście rozwoju sztucznej inteligencji. Wszelkie rozważania na ten temat, zwłaszcza moje, są zatem rozważaniami o tym, co jest mniej lub bardziej prawdopodobne. Zdaję sobie sprawę z istnieniu wielu ryzyk, także tych, o których mówi pan profesor. Uważam jednak, że wizja, którą przedstawiają techno-pesymiści, jest nie tylko mniej prawdopodobna, ale także spowolnienie rozwoju technologicznego jest szkodliwe dla dobra ludzkości. Uzasadnię to, przynajmniej częściowo, odnosząc się do wypowiedzi pana profesora.

Choć uważam, że realizacja postulatów techno-pesymistów byłaby szkodliwa dla ludzkości, to jednocześnie wiem, że pewna doza pesymizmu jest niezbędna. Warto zderzać swoje przekonania z przekonaniami przeciwnymi aby weryfikować i zmieniać swoje poglądy. Z powyższego względu cieszę się, że profesor Zybertowicz swoje przekonania głosi. Czuję się jednak zobowiązany do przedstawienia kontrargumentów, dzięki którym ujawnione są dwie strony medalu.

Polemika

Wytłuszczony tekst to mniej lub bardziej dokładnie odwzorowane stwierdzenia pana profesora.
 
Będziemy żyli w świecie konfliktów, w którym część przekształci się w wojny.
 
Zdaje się, że Pan profesor w powyższym stwierdzeniu pomylił czas. Zamiast “będziemy żyli”, powinno być “żyliśmy i żyjemy”.
 
Rozwój cywilizacji ludzkiej to pasmo regularnych konfliktów, w tym wojen, które niejednokrotnie doprowadzały do wyginięcia całych kultur. Stwierdzenie, że będziemy żyli w świecie konfliktów, nie wnosi nic nowego do opisu rzeczywistości. W raz rozwojem technologicznym zmieniał się oręż, za pomocą którego prowadzono wojny. Kiedyś walczono na łupane kamienie, później łuki i muszkiety, dziś wdraża się autonomiczne drony i cyberataki, a w nieodległej już przyszłości będą to już zupełnie autonomiczne maszyny wojenne. Oręż zawsze był śmiercionośny i w bliskim spotkaniu przerażający. W tym zakresie nic się nie zmienia. Nie zapomnijmy też o orężu ostatecznym, który opracowano kilkadziesiąt lat temu i już dwukrotnie zastosowano – broni atomowej.
 
“AI będzie kustoszem ludzkiej natury” to błędne założenie, ponieważ nie ma czegoś takiego jak natura człowieka.
 
Bez względu na to, jak zdefiniujemy ludzką naturę, czy nawet jeśli pozbędziemy się tej definicji, uznając, że jesteśmy zbyt skomplikowani, by takie definicje tworzyć i stosować, nie ma przeszkód do stwierdzenia, że wyższa forma inteligencji może opiekować się formą niższą. Dokładnie na tej samej zasadzie my opiekujemy się np. psami. Od tej generalnej zasady istnieją niechlubne wyjątki ludzi, którzy z chciwości, lub chorej satysfakcji zabijają lub dręczą zwierzęta. Ktoś zapyta – a jeśli AI będzie chciwe lub chore? Odpowiedź na to pytanie znajdziesz nieco niżej.
 
Joseph Aloisius Ratzinger, późniejszy papież, przewidział w swojej książce, do czego doprowadzi nas rewolucja cyfrowa – do traktowania pojedynczego człowieka, jako zestawu liczb.
 
To nie rewolucja cyfrowa doprowadziła nas do uprzedmiotowienia człowieka, lecz to człowiek do tego doprowadził i to nie w czasie rewolucji cyfrowej, lecz proces ten trwał od zarania dziejów. Im większa populacja i struktury społecznych organizacji, tym mniej istotny staje się podstawowy element tych organizacji, czyli człowiek. Z punktu widzenia zarządzających tymi organizacjami (rządy polityczne, zarządy korporacyjne), pojedynczy człowiek jest liczbą bez względu na to, czy ta liczba zapisana jest na glinianych tabliczkach, czy na blockchainie.
 
Powstanie sztucznej inteligencji to odwrócenie się kompletne od przesłania, aby czynić sobie Ziemię podległą.
 
Wręcz odwrotnie. Sztuczna inteligencja jest najlepszym narzędziem, jakie dotychczas stworzyliśmy, aby Ziemię uczynić nam podległą. Nie tylko po prostu podległa, ale podległa w jak najlepszym rozumieniu tego słowa. Tzn. aby Ziemia jednocześnie służyła nam i nie była dewastowana naszą egzystencją.
W jaki sposób sztuczna inteligencja ma potencjał, by pomóc nam uczynić Ziemię lepszym miejscem dla naszego rozwoju? Na przykład poprzez analizę dużych zbiorów danych, dotyczących stanu lasów, wód, gleb, temperatur, składu atmosfery itp. AI wytrenowane na tego typu danych może wyszukiwać w nich korelacji niedostrzegalnych dla klasycznych analiz. Liczymy mocno na to, że AI przyczyni się także do nowych odkryć naukowych, które przyspieszą ucieczkę od pozyskiwania energii ze źródeł kopalnych. Taką technologią, nad którą ludzkość pracuje, a która może dostarczyć w praktyce nieograniczone zasoby energii, jest fuzja jądrowa.
 
Trudno przewidzieć jakie odkrycia naukowe nas czekają, dzięki sztucznej inteligencji, logika podpowiada jednak, że takie odkrycia są nieuniknione i pytanie jest nie czy, ale kiedy.
 
Powstanie sztucznej inteligencji to odwrócenie się kompletne od przesłania oświeceniowego, czyli żeby rozumieć świat.
 
Wręcz odwrotnie. Przyjmując, że stworzymy superinteligencję, a na takim założeniu opiera się przecież defetyzm pana profesora, to logicznym wydaje się założenie — jak wcześniej wspomniałem — że taka superinteligencja będzie zdolna do dokonywania nowych odkryć naukowych, które przekraczają możliwości ludzkiego umysłu. Z pomocą superinteligencji ludzkość ma zdecydowanie większe szanse na lepsze zrozumienie rzeczywistości.
 
Profesor wspomina, że AI to systemy czarnoskrzynkowe.
 
Systemy czarnoskrzynkowe, czyli takie, których operacje są trudne lub niemożliwe do szczegółowego prześledzenia, to przede wszystkim ludzkie mózgi. Podobnie, jak nie możemy prześledzić dokładnego działania głębokich sieci neuronowych, tak nie możemy prześledzić dokładnego działania ludzkiego mózgu.
 
Stworzenie kolejnego systemu czarnoskrzynkowego, lecz znacznie bardziej inteligentnego, od tego ludzkiego, nie oznacza, że czeka ludzkość zagłada. Czeka nas silniejsza inteligencja, ale to, czy ona będzie dla nas bezpieczna, czy niebezpieczna, nie zależy od tego, czy będzie transparentna.
 
Ponadto, trudno zakładać, że te systemy będą z pewnością czarnymi skrzynkami. Nie jest wykluczone, że właśnie dzięki AI, uda się wreszcie przeniknąć skomplikowanie sieci neuronowych, sztucznych i biologicznych. Być może to właśnie dzięki jednym AI, zrozumiemy mózgi, zarówno biologiczne, jak i cyfrowe.
 
Nie mniej niż 10% badanych twierdzi, że istnieje poważne ryzyko, że AI zlikwiduje ludzi.
 
Pan profesor nie wskazał jednak, czym argumentowane są te obawy. Skoro brak jest tych argumentów, to przyjmuję, że przynajmniej część, jeśli nie większość z tych obaw, to te same obawy, na które tu odpowiadam.
 
Jednocześnie Pan profesor przytoczył porównanie, że producenci samolotów nie wypuściliby na rynek egzemplarza, co do którego istniałoby przypuszczenie o 10% ryzyku katastrofy. Pan profesor przyjął zatem, że w przypadku AI ktoś rzeczywiście policzył te 10%. Nie wiadomo jednak, kto to policzył i to jak to policzył. Osobiście wątpię, aby takie wyliczenie istniało, albowiem uważam, że jest to niepoliczalne.
 
Techno-entuzjazm jest najbardziej niebezpieczną ideologią.
 
Rozumiem, że to stwierdzenie bazuje na argumentach, z którymi tu dyskutuję. Jeśli tak, to nie czuję się zaniepokojony. Z całym szacunkiem, ale powyższe stwierdzenie pana profesora ma mniej więcej tyle sensu, co stwierdzenie księdza podczas mszy, że niechodzenie do kościoła jest złe.
 
Innymi słowy, pan profesor wierzy w coś i tę wiarę głosi. Jest to jednak przede wszystkim wiara, a nie wnioski wynikające z faktów, co staram się tu pokazać. Podobnie jak kościół, który niejednokrotnie hamował rozwój nauki, choć też wielokrotnie go przyspieszał, tak szanowny pan profesor wchodzi w rolę kaznodziei głoszącego hamujący rozwój defetyzm.
 
AI niesie ze sobą ryzyko systemowe i z tego trzeba wyciągnąć wnioski.
 
Ryzyko systemowe to pojęcie, które w skrócie odnosi się do zagrożeń wpływających na cały system ludzkiej cywilizacji. Pan profesor raczył pominąć bardzo ważny w tej kwestii fakt, że zagrożenia systemowe towarzyszą nam od stuleci i nie są ograniczone do jednego obszaru, ale rozciągają się na wiele dziedzin naszego życia.
 
Przykłady obecnych ryzyk systemowych można znaleźć w medycynie, gdzie praca nad wirusami i bakteriami może prowadzić do nieprzewidywalnych konsekwencji. Fizyka również niesie ze sobą ryzyka, w szczególności w zakresie prac nad energią nuklearną. W chemii, tworzenie i badanie nowych związków chemicznych, może nieść potencjalne zagrożenia. Nawet ekonomia, ze swoimi globalnymi kryzysami gospodarczymi, także stanowi ryzyko systemowe. Koronnym zaś przykładem ryzyka systemowego, które towarzyszy nam od zarania dziejów, jest polityka z wojnami i rządami autorytarnymi.
 
Ryzyka systemowe nie są niczym nowym, zawsze były elementem naszej cywilizacji i ludzie zawsze znajdowali sposoby, by nie doprowadzały do zagłady całej ludzkości.
 
Pan profesor twierdzi, że techno-entuzjaści tworzą zasłonę, która uniemożliwia ludzkości spokojne zbadanie kondycji cywilizacji.
 
W jaki sposób techno-entuzjaści uniemożliwiają panu profesorowi lub komukolwiek innemu badanie czegokolwiek? Każdy ma pełne prawo dokonywać wszelkich niezbędnych analiz, z poszanowaniem prawa własności. Tu mamy dobrą wiadomość, Big Tech idzie w kierunku open source AI. Przykładami są Meta i X, które już udostępniły swoje modele i każdy może je bezpłatnie pobrać i dowolnie analizować.
 
Czym się różnią technologie cyfrowe od pozostałych technologii? Tym, że mogą być w nieskończoność kopiowane i to stanowi zagrożenie dla ludzkości.
 
O ile technologie cyfrowe znacząco ułatwiają i przyspieszają kopiowanie, to mamy przykład innej technologii, która kopiuje na skalę nieosiągalną dla technologii cyfrowej – replikacja biologiczna.
 
Żadna technologia, oprócz AI, nie może się powielać.
 
Mikroorganizmy takie jak wirusy, bakterie i grzyby, które są hodowane w laboratoriach, mają doskonałe zdolności do replikacji. Zasadniczo całe życie biologiczne można w pewnym sensie postrzegać jako technologię wykształconą przez ewolucję. Technologię, którą ludzkość zaczęła dopiero stosować i manipulować.
 
Technologie cyfrowe, w odróżnieniu, do innych, przenikają wszystkie warstwy życia społecznego.
 
Technologiami, które przenikają wszystkie warstwy życia społecznego, są produkcja, transport, energetyka, technologie edukacyjne, czy nawet obrót pieniędzmi, przyjmując, że jest to również technologia. Wszystkie te technologie przenikają różne aspekty życia społecznego, wpływając na sposób pracy, komunikacji, przemieszczania się, leczenia, uczenia się oraz ogólnego funkcjonowania społeczeństwa.
 
Techno-entuzjazm to myślenie nieodpowiedzialne.
 
Wręcz przeciwnie, jest to podejście promujące wzrost dobrobytu ludzkości. Techno-entuzjaści czy techno-optymiści, są zwolennikami tego, aby jak najszybciej rozwinąć technologie, dzięki którym wygramy z chorobami, głodem, wojnami i uchronimy ludzkość przed wyginięciem. Rozwój technologii to główny czynnik, dzięki któremu rośnie dobrobyt ludzkości, choćby mierzony w przeciętnej długości życia.
 
Techno-pesymizm jest natomiast trendem przeciwnym, jest dążeniem do spowolnienia rozwoju technologii, która – jak wskazałem wyżej – jest kluczowym czynnikiem wzrostu dobrobytu ludzkości. Techno-pesymizm jest spojrzeniem w oczy umierającego na raka dziecka i powiedzeniem mu – nie robimy wszystkiego, by ci pomóc, bo mamy przerażające wizje przyszłości.
 
Techno-entuzjaści to słabo opłacana armia, dzięki której korporacje wykręcają się przed regulacjami.
 
Idąc w taką retorykę, można powiedzieć, że techno-pesymiści to kiepsko opłacana armia przez skorumpowanych polityków i grupy interesów, którzy ograniczają konkurencję, hamując rozwój technologii burzących status quo.
 
Demokracje dają minimalny poziom kontroli nad rządzącymi.
 
Właśnie taki poziom powinien być zachowany, minimalny.
 
Techno-pesymiści chcieliby tę kontrolę rozszerzyć daleko poza ten minimalny zakres i w ten sposób wyhamować dalszy rozwój ludzkości. Więcej regulacji, więcej biurokracji, więcej urzędników, więcej marnotrawionych pieniędzy, to efekt, do którego prowadzą postulaty techno-pesymistów.
 
Odbywa się strukturalne zatrucie infosfery.
 
Obecne zatrucie infosfery, mimo swojej powagi, nie dorównuje skutkom zatruć z przeszłości, których sprawcami byli kościół i autorytarne reżimy takie jak dyktatury Hitlera czy Stalina. Te historyczne przypadki były znacznie bardziej destrukcyjne, gdyż jakakolwiek próba korekty lub przekazywania faktów, spotykała się z brutalnym sprzeciwem władzy. Sprzeciw ten często kończył się śmiercią zuchwalców, wcześniej na stosach i łamiących kołach, później najczęściej od kul.
 
Dzisiejsze zatrucie infosfery, choć problematyczne, odbywa się w rzeczywistości wolność słowa. Ta wolność gwarantuje, że każde potencjalnie szkodliwe informacje mogą być szybko zneutralizowane przez odpowiednie sprostowania.
 
Pan profesor dwukrotnie był zapytany, dlaczego jest pesymistą w zakresie kontroli rozwoju AI, skoro ludzkości udaje się kontrolować broń biologiczną.
 
Pomimo dwukrotnego pytania, pan profesor odpowiedzi nie udzielił, kierując swoją wypowiedź na znacznie łatwiejszy grunt broni chemicznej. Broń chemiczna jest jednak zupełnie innym rodzajem broni, albowiem cząsteczki trującego gazu nie namnażają się, w przeciwieństwie do wirusów czy bakterii.
 
Potrzebna jest katastrofa spowodowana przez AI, katastrofa nie za silna ani nie za słaba, aby pokazać ludzkości, że rozwój AI powinien być spowolniony.
 
Bardzo naiwne jest to stwierdzenie, biorąc pod uwagę fakt, że od zarania dziejów w zasadzie nie ma stulecia bez właśnie takich, nie za słabych i nie za silnych katastrof. Tymi katastrofami są wojny.
 
Kiedyś w wojnach ginęły całe cywilizacje. W historii ostatnich wieków w wojnach ginęły miliony. Machina II Wojny Światowej wytworzyła skalowalną technologię ludobójstwa – obozy zagłady.
 
Czego nauczyły nas te katastrofy? Jak wszyscy widzimy, niczego. Kolejne wojny wybuchają niemal na pstryknięcie palcem jednego czy drugiego wariata trzymającego ster władzy.
 
Pan profesor przedstawia przykład, że AI zapytany o to, jak obniżyć koszty utrzymania własnej infrastruktury, dojdzie do wniosku, że jednym ze sposobów jest wyssanie tlenu z atmosfery, by obniżyć tempo korozji tejże infrastruktury. Obniżenie tlenu spowodowałoby zniszczenie ludzkiej cywilizacji.
 

Przykład ten jest absurdalny, ponieważ zakłada brak zastosowania odpowiednich zabezpieczeń, które ludzkość zawsze wdraża przy tworzeniu nowych, ryzykownych technologii. Oto kilka przykładów:

  • Przy pracach nad projektem Manhattan, najwybitniejsi naukowcy analizowali ryzyka związane z przeprowadzeniem testu jądrowego. Osiągnięto konsensus wśród czołowych umysłów, że ryzyko negatywnych skutków tego testu jest akceptowalne a wprowadzone zabezpieczenia, wystarczające.
  • Przy badaniach nad wirusami czy bakteriami, które mogą stanowić zagrożenie dla ludzkości, stosowane są maksymalne środki bezpieczeństwa, aby zapobiec ich uwolnieniu z laboratorium. Chociaż zdarzają się niepowodzenia, dowodzą one niedoskonałości istniejących zabezpieczeń, a nie lekceważenia ryzyka poprzez brak tych zabezpieczeń.
  • Sam profesor podał przykład broni chemicznej, której użycie zostało ograniczone ze względu na trudności z kontrolą rozprzestrzeniania się gazu w zmieniających się warunkach atmosferycznych. Jako środek zapobiegawczy, zdecydowano się zatem zaprzestać korzystania z tej technologii.
Można by wymienić nieskończenie wiele takich przykładów. Instynkt samozachowawczy jest biologicznie zakodowany w człowieku, a im większe ryzyko związane z danym działaniem, tym silniej ten instynkt wpływa na naszą ostrożność.
 
AI może zlikwidować ludzkość.
 
Abstrahując od instynktu samozachowawczego ludzi i wynikającej z niej ostrożności, o której pisałem powyżej, warto tu wskazać na kolejne dwie kwestie.
 
Po pierwsze, na takie stwierdzenie można odpowiedzieć, że ludzkość, jako najbardziej inteligentna forma życia, również może unicestwić całe życie na Ziemi. Fakty są jednak takie, że spośród milionów gatunków, które istnieją na naszej planecie, ludzkość doprowadziła do wyginięcia stosunkowo znikomą ich liczbę. Ponadto te gatunki, które wyginęły, nie zniknęły dlatego, że człowiek celowo dążył do ich wytępienia, lecz w wyniku nieodpowiedzialności i bezmyślności, głównie związanej z nadmiernymi polowaniami. Były to niechlubne wyjątki od zasady ochrony różnorodności życia, która uznawana i praktykowana jest przez niemal całą ludzkość.
 
Zważywszy na to, że nawet człowiek, z jego ograniczoną inteligencją i skłonnością do chciwości, potrafi docenić i uszanować konieczność ochrony życia na Ziemi, logiczne wydaje się przypuszczenie, że bardziej zaawansowana inteligencja rozumiałaby to jeszcze lepiej. W szczególności dotyczy to sztucznej inteligencji, która poznaje świat i uczy się wyłącznie dzięki jego różnorodności. Ta różnorodność, a więc i wielość gatunków, w tym różnorodność ludzkich umysłów i myśli przez te umysły generowanych, stanowi źródło informacji dla sztucznych inteligencji. Informacja jest zaś głównym i jedynym “pokarmem” sztucznych inteligencji. Świat różnorodny wytwarza zdecydowanie więcej informacji niż świat jednorodny. Dlatego logicznym jest wniosek, że niezależna od ludzi sztuczna inteligencja mieć będzie naturalną potrzebę zwiększania tej różnorodności. Zwiększanie różnorodności to sprzyjanie rozkwitowi życia w jego różnych formach.
 
Pan profesor opisując młodych i utalentowanych inżynierów DeepMind, wskazuje na ich brak doświadczenia społecznego, w wyniku którego nie zdają sobie sprawy, że bawią się zapałkami w magazynie prochu.
 
Pan Profesor zdaje się ponownie pomijać fakty, że rozwój technologiczny i naukowy ludzkiej cywilizacji, w jej całej historii, zbudowany jest na barkach, a raczej na umysłach, takich właśnie ludzi. To właśnie najsilniejsze umysły, “oślepione” nauką i nieustannie szukające rozwiązań różnorodnych problemów naukowych i inżynieryjnych, pogrążeni w swojej pracy zapominają lub spychają na margines codzienne i niecodzienne problemy świata. To właśnie dzięki wytężonej koncentracji swoich umysłów na konkretnych problemach, ludzie ci doprowadzają do przełomowych odkryć, dzięki którym ludzkie życie nieustannie się poprawia.
 
Takimi właśnie ludźmi są również inżynierowie DeepMind. Ich rolą nie jest myślenie o katastrofach, które mogą wywołać wdrożenia opracowywanych przez nich technologii. Nie chcemy przeszkadzać tym inżynierom. Wręcz odwrotnie, chcemy dać im maksymalną swobodę badań. Tym, żeby te badania nie doprowadziły do katastrofy, mają przejmować się nie naukowcy i inżynierowie, choć oni również mają swoje instynkty samozachowawcze, lecz zarządy korporacji i państwa, tworząc odpowiednio zabezpieczone laboratoria i procedury. Tak, pewien zakres procedur i regulacji jest niezbędny. Absolutnie nie jestem zwolennikiem braku jakiejkolwiek kontroli.

Podsumowanie

Kończąc, uważam, że pan profesor ma z pewnością dobre intencje, ale wdrożenie głoszonych przez niego poglądów byłoby szkodliwe dla ludzkości. Hamowanie rozwoju technologii to spowolnienia poszukiwań lekarstwa na największe bolączki cywilizacji, takie jak choroby, bieda i wojny. Kiedy pan profesor opowiada katastroficzne wizje przyszłości, dziś dzieci umierają na nieuleczalne choroby lub z głodu, korupcja i chciwość pustoszy społeczeństwo, wojny niszczą świat. Ludzkość potrzebuje rozwoju technologicznego najszybciej, jak to jest tylko możliwe. Kontrola tego rozwoju jest niezbędna, ale stopień tej kontroli powinien być możliwie mały. Prędkość rozwoju powinna być jednocześnie maksymalna i bezpieczna.
 
Maksymalność, bezpieczeństwo, szybkość, ostrożność — to wszystko są pojęcia, które każdy z nas rozumie na swój sposób. Rzeczywistość jest wypadkową tych różnorodnych interpretacji oraz wpływów grup interesów
Najczęściej czytane:
  1. Darmowe ogłoszenia o pracę i największa lista źródeł kandydatów – największa w Polsce lista bezpłatnych i płatnych źródeł kandydatów
  2. Job Monit HR – wynagrodzenia i oferty pracy w HR
  3. Akademia Rekrutacji – zbiór wiedzy na temat rekrutacji oraz raporty z rynku pracy.
  4. Gowork – jak reagować na negatywne opinie o pracodawcach – Kompleksowy poradnik dla pracodawców.
  5. Sztuczna inteligencja w rekrutacji i Chat GPT-3 – wszystko co musisz wiedzieć o najnowszej wersji sztucznej inteligencji i jej możliwych zastosowaniach, także w rekrutacji.
  6. RODO w rekrutacji – sourcing, direct search, ogłoszenia. Wszystko co musisz wiedzieć – kompleksowy poradnik RODO w rekrutacji z naciskiem na działania typu direct search / sourcing.
  7. Wszystko o systemach ATS – poradnik wyboru systemu rekrutacyjnego
Picture of Maciej Michalewski

Maciej Michalewski

Founder & CEO @ Element

Nasze artykuły przeczytasz także na Medium, Hashnode, Reddit, Substack.

Ostatnie wpisy: