Czy używanie treści ChatGPT do własnych wypowiedzi jest w porządku?
Post na LinkedIn, który skłonił mnie do napisania tego artykułu
Natrafiłem jakiś czas temu na ten post , który krytykuje kopiowanie treści ChatGPT i wklejanie ich jako własnych wypowiedzi. Sprawa na pierwszy rzut może wydawać się oczywista. Oczywista jednak nie jest. W niniejszym artykule przedstawiam inną perspektywę, zgodnie z którą kopiowanie treści ChatGPT i używanie jej, nawet bez jakiejkolwiek modyfikacji, może być nie tylko dopuszczalne, ale wręcz wskazane.
Rola AI w komunikacji
Warto na wstępie zwrócić uwagę, że w erze cyfrowej, gdzie sztuczna inteligencja coraz bardziej przenika nasze życie codzienne, zasadne jest pytanie o rolę AI w kształtowaniu komunikacji. Jakie miejsce powinna zajmować generatywna AI, jak ChatGPT, w procesie formułowania naszych wypowiedzi? Czy powinna być postrzegana jako zagrożenie dla autentyczności i indywidualności, czy raczej jako narzędzie wspierające i rozszerzające nasze możliwości komunikacyjne?
Ten artykuł próbuje znaleźć odpowiedzi na powyższe pytanie, jednocześnie odnosi się do krytyki wykorzystywania generatywnej sztucznej inteligencji do wspierania własnych wypowiedzi.
AI wspiera formułowanie argumentów
Jeśli rozmowa koncentruje się na wymianie argumentów i ma na celu poszukiwanie prawdy lub sensu, to nie ma znaczenia, czy słowa używane do formułowania tych argumentów pochodzą od człowieka, czy zostały wygenerowane przez sztuczną inteligencję. W takiej rozmowie wartość wypowiedzi nie powinna być – i zazwyczaj nie jest – mierzona na podstawie emocji czy osobistych cech rozmówcy. Zamiast tego, kluczowe znaczenie ma merytoryczna wartość prezentowanych argumentów.
ChatGPT, wykorzystujący model GPT-4, może być nieocenionym narzędziem w prowadzeniu merytorycznych dyskusji. Chociaż nie jest doskonały, to w wielu aspektach posługuje się językiem znacznie lepiej niż przeciętny człowiek. Dzięki swojemu błyskawicznemu dostępowi do olbrzymiej bazy wiedzy – zarówno o świecie, jak i o zasadach posługiwania się językiem – ChatGPT jest w stanie natychmiast generować sformułowania, które przedstawiają określony argument w sposób efektywny: czytelnie, rzeczowo i łatwy do przyswojenia.
Mówiąc wprost, gdy prowadzę rozmowę i brakuje mi odpowiednich słów do wyrażenia moich myśli, poszukuję argumentów, przykładów, lub porównań, skorzystanie z ChatGPT jest bardzo dobrym pomysłem. Wbrew sugestii niektórych ludzi, wykorzystanie treści ChatGPT nie będzie oznaką braku szacunku lub kłamstwem. Wręcz odwrotnie. Właśnie z szacunku dla innych i z szacunku dla siebie samego chcę, aby moje wypowiedzi były jasne, rzeczowe, racjonalne i w miarę możliwości obiektywne. ChatGPT doskonale sprawdzi się w formułowaniu właśnie takich wypowiedzi, w szczególności, jeśli prawidłowo o to poprosimy:
Na portalu Linkedin napotkałem na następujący post: “treść postu”.
Nie zgadzam się z tezą postawioną przez autora postu. Uważam, że XYZ. Proszę, przygotuj treść mojej odpowiedzi na ten post przedstawiając argumenty uzasadniające mój pogląd. Ponadto poprzyj te argumenty rzeczywistymi przykładami.
Jeśli wygenerowana przez ChatGPT odpowiedź jest w pełni zgodna z moim poglądem i nie czuję potrzeby jej zmiany, to nie muszę na siłę modyfikować tej treści tylko po to, aby ktoś nie mógł mi zarzucić, że robię copy paste. Najważniejsze jest moje czyste sumienie. Brakowało mi słów, więc skorzystałem z pomocy, by wyrazić się w możliwie najlepszy sposób.
Wymiana argumentów jest jak proces sądowy
Rozmowę, w której wymieniamy się argumentami, można traktować trochę jak proces sądowy. W obu przypadkach, zarówno w dyskusji, jak i w sądzie, strony starają się przedstawić swoje argumenty w sposób jak najbardziej czytelny i przekonujący. Podobnie jak w procesie sądowym, gdzie prawnicy regularnie cytują nie tylko przepisy prawne, ale również opinie innych prawników, głównie sędziów, których interpretacje przepisów znajdują się w uzasadnieniach orzeczeń wyższych instancji, tak i w dyskusji możemy korzystać z różnych źródeł, aby wzmocnić nasze argumenty.
Za leniwą lub ewentualnie niedysponowaną, należy uznać osobę, która mając zdolność do samodzielnego sformułowania przejrzystej i skutecznej argumentacji, wybiera kopiowanie treści wygenerowanej przez sztuczną inteligencję i przedstawianie jej jako własnej.
Jednakże osoba, której faktycznie brakuje odpowiednich słów do skutecznego wyrażenia swojego argumentu, i która z tego powodu sięga po pomoc ChatGPT, działa w sposób inteligentny. Osoba ta rozumie swoje ograniczenia i ograniczenia te pokonuje korzystając z technologii. Takie działanie zasługuje na pochwałę, nie na krytykę.
Traktuję siebie jako osobę, która ma lekkie pióro. To pewnie dzięki rodzicom, dla których od najmłodszych lat przepisywałem na maszynie a później na komputerze prawnicze wywody. Niemniej jednak ja również raz na jakiś czas potrzebuję wsparcia w poszukiwaniu odpowiednich argumentów uzasadniających swoje poglądy, czy też poszukuję sensu jakieś wypowiedzi. W tych momentach zwracam się o pomoc do ChatGPT. Czy wykorzystam słowa wygenerowane przez ChatGPT w swoich treściach, a jeśli tak, to czy treści te najpierw zmodyfikuję, zależy od konkretnej sytuacji. W przypadkach merytorycznej dyskusji, gdzie kluczowa jest siła argumentu, nie widzę problemu, aby zrobić kopiuj wklej. Jak wskazałem wyżej, w tego typu dyskusjach najważniejsza jest treść, a nie autorstwo.
Inny mój przykład wykorzystania ChatGPT w dyskusjach to rozmowy prowadzone w języku angielskim, w których czasami czuję się mniej pewnie w formułowaniu myśli. Tu pomoc AI jest jeszcze bardziej wartościowa, ponieważ ChatGPT znacznie lepiej posługuje się językami dla mnie obcymi, a językiem angielskim posługuje się najlepiej w ogóle.
Przemyśl zanim wykorzystasz
Bez względu na to, czy wykorzystuje ChatGPT do tworzenia treści na potrzeby marketingowe systemu ATS Element, czy też w jakichkolwiek innych celach, często jego pierwsza odpowiedź nie odpowiada dokładnie temu, co mam na myśli. Jest tak szczególnie często, jeśli przedstawiam nieprecyzyjne pytania lub bardzo ogólnie sformułowane problemy, czy idee. W takich wypadkach muszę najczęściej zadawać dodatkowe pytania lub inaczej formułować moje myśli, aby uzyskać odpowiedź, która w pełni mnie satysfakcjonuje. W swojej codziennej pracy często wykorzystuję jedynie fragmenty tekstu wygenerowanego przez ChatGPT lub jedynie pomysły, który przyszły mi do głowy czytając wygenerowane treści.
Z uwagi na powyższe każda osoba, która chce skopiować treść ChatGPT jako własną, powinna dokładnie tę treść przeczytać i przemyśleć, czy ją w pełni rozumie i akceptuje jako własną. Kopiowanie i przeklejanie takich treści w sposób nieprzemyślany może doprowadzić do odwrotnego skutku niż zamierzony – chaos komunikacyjny i narażenie się na krytykę lub wręcz żarty.
Czy informować o tym, że skorzystałem z treści wygenerowanej przez AI?
ChatGPT traktuję jako osobistego asystenta. To rozszerzenie mojego intelektu i mojej pamięci. Analizuję jego treści i świadomie decyduję, co jest do wykorzystania, co jest do zmodyfikowania, a co w ogóle się nie przyda.
Jedyna wątpliwość, którą mógłbym mieć (ale nie mam) w zakresie korzystania z mojego asystenta, to kwestia, czy powinienem informować o tym, że treść została wygenerowana przez ChatGPT. W kontekście rozmowy nastawionej na wymianę i analizę argumentów taka informacja jest zbędna. Jak wspomniałem już kilkukrotnie, istotna jest zasadność argumentu, a nie jego źródło. Nie ma znaczenia, czy argument został zaczerpnięty od przyjaciela, z książki, Wikipedii czy ChatGPT. Dla klienta kancelarii prawnej nie ma znaczenia, że opinię prawną przygotował asystent, jeśli pod tą opinią znajduje się podpis szefa kancelarii potwierdzający rzetelność tej opinii.
Na marginesie wskażę, że jeszcze bardziej liberalnie podszedłbym do stosowania treści wygenerowanych przez AI na rzecz komunikacji o charakterze czysto informacyjnym. Mam tu zatem na myśli takie komunikaty jak opisy produktów i usług, regulaminy, umowy, materiały edukacyjne, handlowe itp. Tu autorstwo treści jest jeszcze bardziej nieistotne.
Rozważania filozoficzne - gdzie się zaczyna moja myśl?
Zacznijmy od stwierdzenia, że wszystko, co mówimy i myślimy, wynika z tego, że od początku naszego życia w naszych mózgach nieustannie formułowane i przekształcane jest wyobrażenie świata i preferencje. W pewnym sensie, wszystko, co myślimy i wypowiadamy, jest wypadkową naszych niepowtarzalnych doświadczeń i genów. Wiem jednak, że myśl jest moja, bo pojawiła się w mojej głowie.
Co dzieje się jednak w sytuacji, gdy moje myśli, zdania i wypowiedzi formułowane są na bazie treści, które pierwotnie nie powstały w mojej głowie? Na przykład znajomy przekonał mnie do swojego zdania. Następnie to zdanie przedstawiam innej osobie, używając dokładnie tych samych słów, które użył znajomy. Skorzystałem z tych samych słów, ponieważ lepiej ująć tego nie potrafiłem. Zaadoptowałem czyjąś wypowiedź i traktuję ją już jak własną. Myśl jest już zatem moją myślą, ponieważ tak ją teraz traktuję. Nie szkodzi, że nie powstała w moim umyśle. Ja ją w swoim umyśle zaakceptowałem.
Ten proces wymiany i adaptacji myśli może być postrzegany jako nieustanna interakcja między indywidualnym i kolektywnym aspektem naszego intelektu. Każda nasza myśl, choć może wydawać się unikalna, jest częściowo ukształtowana przez doświadczenia, które dzielimy z innymi.
Przytoczę inny przykład. Gdzieś natknąłem się na argument przeciwko cenzurze, ukrytej pod pozorem walki z dezinformacją. Ten argument wydał mi się bardzo trafny i zapisałem go w notatniku. Następnie, wziąłem udział w dyskusji, gdzie tematem była właśnie walka z dezinformacją. W rozmowie przedstawiłem argument przeciwko cenzurze w identycznych słowach, jakie zapisane miałem w notatniku. Ktoś mógłby zadać pytanie: czy moja wypowiedź była naprawdę moja? Czy powinienem był dokonać choćby drobnych zmian w wypowiedzi, aby móc bronić się przed zarzutem, że kopiuje wypowiedzi innych? Czy moja wypowiedź traci na wartości z tego powodu, że nie została wymyślona przeze mnie?
Te rozważania prowadzą do głębszego pytania o naturę własności intelektualnej i autentyczności w epoce informacji. W jaki sposób możemy zdefiniować ‘własność’ myśli, gdy tak wiele z nich jest inspirowanych, adaptowanych lub nawet bezpośrednio zapożyczonych od innych? Czy myśl przestaje być moja, jeśli powstała na bazie informacji pozyskanej od innej osoby? Czy wypowiedź przestaje być moja, jeśli jej podobieństwo do innej wypowiedzi, którą się zainspirowałem, przekracza 90%? W epoce informacji traci na znaczeniu źródło informacji. Krytyczna jest wiarygodność informacji i jej przydatność w konkretnym kontekście.
Argumenty i Uczucia
Bardzo ważne w tej dyskusji jest rozróżnienie między wyrażaniem uczuć a wymianą argumentów lub pozbawionych emocjonalnego znaczenia informacji (np. informacja o treści regulaminu). Wszystko to, o czym dotychczas pisałem, dotyczyło wymiany argumentów lub pozbawionej emocjonalnego znaczenia informacji. Sprawa ma się zupełnie inaczej w przypadku wyrażania emocji.
Można to porównać do różnicy między nauką ścisłą a sztuką. Wymiana argumentów i przekazywanie “suchych” informacji, podobnie jak nauki ścisłe, wymaga logiki, spójności, jasności i musi być istotna dla rozpatrywanego problemu. Natomiast wyrażanie uczuć, podobnie jak sztuka, nie musi podlegać logice ani rozwiązywać konkretnego problemu; uczucia po prostu pojawiają się w nas i manifestują na różne, czasem niezrozumiałe sposoby.
Nie twierdzę, że ChatGPT jest kompletnie nieprzydatny w kontekście wyrażania uczuć. Wręcz odwrotnie. Umiejętności językowe modeli językowych takich jak GPT są tak dobre, że świetnie poradzą sobie w tworzeniu komplementów lub rozładowywaniu negatywnych emocji. Niemniej jednak, do czasu osiągnięcia pełnej symbiozy ze sztuczną inteligencją, co opisałem w artykule Czy jest możliwa i jak może wyglądać symbioza człowieka i AI?, wydaje mi się, że kopiowanie treści sztucznej inteligencji do wyrażania własnych uczuć ma bardzo ograniczony sens. W odróżnieniu od argumentowania, w tym przypadku mniejsze znaczenie ma treść, a kluczowa jest moja własna emocja. Ścisk mojego żołądka, zdenerwowanie, zaskoczenie, zachwyt czy przerażenie. Tego AI jeszcze nie poczuje.
Podsumowanie
Reasumując, uważam, że w wyżej przedstawionych przypadkach kopiowanie treści ChatGPT i używanie ich jako własnych, jest dopuszczalne i nie wymaga informowania odbiorców.
Prowadząc rozmowę, nie analizuję tego, skąd osoba wzięła słowa, które wypowiada. Analizuję, czy te słowa mają sens. Jeśli ChatGPT może komuś pomóc w przygotowaniu lepszej wypowiedzi, to wręcz zachęcam do korzystania z takiej pomocy. Zalecam jednak, aby dokładnie przeczytać wygenerowaną przez AI treść i zastanowić się, czy jest dobrze zrozumiana i czy się pod nią w pełni podpisujemy. Kopiowanie treści bez takiej analizy, może prowadzić do wystawienia się na krytykę i żarty.
Twierdzenie, że używanie treści ChatGPT jako własnych, jest okłamywaniem innych osób, to spłycenie problemu i wskazuje na brak głębszej jego analizy lub zignorowanie jej wyników.
Obrazek z napisem “DOSYĆ JUŻ TEJ ŚCIEMY NA LINKEDIN”, który Pan Marcin użył do ilustracji swojego posta, można by było porównać do obrazka z napisem “DOSYĆ JUŻ WYPADKÓW NA DROGACH” przypiętego do artykułu, w którym ktoś stwierdza, że ludzie powinni przestać jeździć samochodami, bo zdarzają się wypadki.
Nie tędy droga.
Inne moje artykuły na temat AI
Jeśli zaciekawił Cię ten artykuł, to zachęcam do lektury kilku innych, w których prowadzę rozważania na tematy związane z rozwojem sztucznej inteligencji 👇
- Darmowe ogłoszenia o pracę i największa lista źródeł kandydatów – największa w Polsce lista bezpłatnych i płatnych źródeł kandydatów
- Job Monit HR – wynagrodzenia i oferty pracy w HR
- Akademia Rekrutacji – zbiór wiedzy na temat rekrutacji oraz raporty z rynku pracy.
- Gowork – jak reagować na negatywne opinie o pracodawcach – Kompleksowy poradnik dla pracodawców.
- Sztuczna inteligencja w rekrutacji i Chat GPT-3 – wszystko co musisz wiedzieć o najnowszej wersji sztucznej inteligencji i jej możliwych zastosowaniach, także w rekrutacji.
- RODO w rekrutacji – sourcing, direct search, ogłoszenia. Wszystko co musisz wiedzieć – kompleksowy poradnik RODO w rekrutacji z naciskiem na działania typu direct search / sourcing.
- Wszystko o systemach ATS – poradnik wyboru systemu rekrutacyjnego
Maciej Michalewski
CEO @ Element. Recruitment Automation Software
Ostatnie wpisy:
Raport ofert pracy – listopad 2024: delikatny spadek, średnia ciągle w górę
Zapraszamy do analizy najnowszego raportu ofert pracy, który przedstawia dane z listopada 2024. Sprawdź, jak rynek pracy radzi sobie w końcówce roku.
Luddyści wdrożą listę zawodów chronionych przed AI? Nowy pomysł rządu
Luddyści wdrożą listę zawodów chronionych przed AI? Nowy pomysł rządu Luddyzm w biznesie i w rządzie Oto wypowiedź Pana Michała Podulskiego, dyrektora Agencji Pracy Tymczasowej
Dlaczego Element jest liderem elastyczności systemów ATS?
Oto dlaczego Element wyróżnia się jako najbardziej elastyczny ATS i jak szybko pozwala dostosować procesy rekrutacyjne do indywidualnych potrzeb firmy.
Lepsze wyszukiwanie i obsługa ponownych aplikacji w Element
Lepsze wyszukiwanie i obsługa ponownych aplikacji w Element Wyszukiwanie kandydatów jeszcze lepsze Wzięliśmy się za udoskonalanie wyszukiwarki kandydatów w Elemencie. Choć baza kandydatów w naszym
Raport ofert pracy – październik 2024: kolejna poprawa!
Ponownie dobre wieści z rynku pracy! Pracodawcy publikują coraz więcej ogłoszeń rekrutacyjnych. W jakich branżach? Sprawdź szczegóły!
Keywords cloud – najlepszy sposób na przygotowanie CV pod ATS
Keywords Cloud, czyli chmura słów kluczowych to najskuteczniejsza techniką przygotowania CV pod systemy ATS. Zobacz czym jest i jak ją dodać do CV.