Tworzenie dużej ilości treści to dobry sposób na zwiększenie ruchu w witrynie. Może to być również bilet w jedną stronę do internetowej otchłani, jeśli nie zachowasz ostrożności.
Od czasu wydania ChatGPT generowanie treści stało się znacznie łatwiejsze. Po prostu podajesz instrukcje, klikasz “prześlij” i czekasz, aż wydarzy się magia.
Ale czy jest to sensowna strategia zwiększania widoczności online? Jak pokazała nam aktualizacja Google z marca 2024 r., nie do końca.
W dużej mierze dzięki tej aktualizacji coraz więcej osób zaczęło szukać sposobów na wykrywanie treści generowanych przez sztuczną inteligencję.
Dlaczego? Ponieważ Google zaczęło zmniejszać widoczność stron internetowych, które nadużywały narzędzi AI do zalewania sieci miernymi artykułami.
Ostatecznie wiele osób doszło do wniosku, że należy unikać treści pisanych przez sztuczną inteligencję. W wyniku tego, popularność detektorów treści AI wzrosła.
Niestety, narzędzia te są również niedoskonałe.
W tym artykule twierdzę, że ludzie są lepsi w identyfikowaniu treści AI niż maszyny — przynajmniej w sposób, który ma znaczenie dla SEO. Co to oznacza? Poznaj odpowiedź.
Dlaczego zależy nam na treściach generowanych przez sztuczną inteligencję?
Dbamy o to, ponieważ dba o to Google. To w zasadzie wszystko. Ale tutaj jest haczyk — Google dba tylko o jakość treści, która często jest słaba, gdy tworzysz treści na autopilocie.
Nie mam nic przeciwko treściom tworzonym przy pomocy sztucznej inteligencji. Duży czy mały — wkład AI nie ma znaczenia, o ile efekt jest dobry.
Co zatem składa się na dobry efekt? Oto kilka wskazówek, którymi warto się kierować:
- Twórz treści zorientowane na ludzi. Kiedy skupiasz się na śledzeniu swoich wyników, łatwo jest stracić perspektywę. Pamiętaj, że warto tworzyć treści, z których inni mogą czerpać korzyści, a nie tylko po to, by zwiększyć liczbę wyświetleń.
- Zademonstruj cechy E-E-A-T. E-E-A-T to grupa sygnałów, których Google używa do określania jakości treści. Im więcej właściwych sygnałów wyślesz, tym większe masz szanse na pierwszą stronę wyników wyszukiwania.
- Mów wprost o wykorzystaniu sztucznej inteligencji. Jako jeden z elementów tworzenia pomocnych, wiarygodnych i zorientowanych na ludzi treści Google wymienia samoocenę treści pod kątem „Kto, jak i dlaczego”. Kiedy publikujesz swoje treści online, jasno określ, kto jest ich autorem, jak zostały stworzone i dlaczego w ogóle zostały napisane. Tak więc, jeśli korzystasz ze sztucznej inteligencji na którymkolwiek etapie tego procesu, lepiej nie owijać w bawełnę i przyznać się do tego.
- Dokładnie sprawdzaj wszystko, co publikujesz. Choć może się to wydawać trywialne, dobrą praktyką jest spojrzenie na treść więcej niż jednej pary oczu przed opublikowaniem jej w internecie. Pokusa pominięcia kilku kroków i opublikowania swojego artykułu tak szybko, jak to możliwe, zawsze będzie istniała, ale pomyśl, czy na pewno warto?
- Zapoznaj się z wytycznymi dotyczącymi oceny jakości. Google w swoich wytycznych dotyczących oceny jakości wyszukiwania dzieli się kilkoma spostrzeżeniami. Szczerze mówiąc, powinna je znać każda osoba, która chce uzyskać wysoką pozycję w Google.
Treści AI nie są równoznaczne ze złymi treściami
Na podstawie naszej obecnej wiedzy i tego, co Google mówi, nie ma powodu, by sądzić, że karze strony internetowe z treściami generowanymi przez sztuczną inteligencję.
Po prostu wiele treści niskiej jakości jest tworzonych przez duże modele językowe (LLM). I szczerze mówiąc, nie jest to zaskakujące. Są one zaprojektowane tak, aby spełniać szeroki zakres potencjalnych zastosowań, a LLM są szkolone w celu dostarczania ogólnych odpowiedzi.
Jest to powód, dla którego prawie każdy artykuł na temat zdrowia, który wygenerujesz za pomocą ChatGPT, będzie zawierał co najmniej jedno zdanie mówiące coś w rodzaju „Aby uzyskać więcej informacji, skonsultuj się z lekarzem”.
To nie jest błąd. To funkcja.
To, co możemy zrobić jako copywriterzy, to znaleźć wiarygodne źródła i przedstawić je modelowi językowemu jako przykłady. Albo, jeszcze lepiej, sami napisać jakąś treść i mocno edytować to, co dostarcza maszyna, używając jej jedynie jako pomocnego zarysu.
Istnieje również kwestia pisania zwięzłych, prostych podpowiedzi, które mogą popchnąć model językowy we właściwym kierunku. Tworzenie takich podpowiedzi jest przez wielu uważane za formę sztuki.
Choć nie jest to łatwe, prawidłowe wykonanie tego zadania może znacznie podnieść jakość wyników otrzymywanych z modeli językowych.
Nie jesteśmy więc całkowicie bezradni, jeśli chodzi to, by treści były zgodne z naszymi oczekiwaniami.
Biorąc pod uwagę ten kontekst, stwierdzenie, że wszystkie treści generowane przez AI są złymi treściami, jest zbyt uproszczonym opisem tego problemu.
Nie musimy eliminować treści AI. Musimy wyeliminować złe treści AI.
Czy powinniśmy zawracać sobie głowę wykrywaniem AI?
W większości przypadków ustalenie, czy mamy do czynienia z treściami generowanymi przez sztuczną inteligencję, jest mądrym posunięciem. W końcu im więcej informacji posiadamy, tym lepszych wyborów możemy dokonać – przynajmniej w teorii.
Zanim jednak będziemy mogli wyeliminować złe treści AI, musimy je najpierw zidentyfikować. I jest to obszar, w którym ludzie przeważają nad detektorami treści AI.
Tak, narzędzie do wykrywania treści AI prawdopodobnie będzie publikować lepsze wyniki, jeśli chodzi o identyfikację, czy mamy do czynienia z treściami napisanymi przez AI, czy przez człowieka.
Nie będzie jednak w stanie odróżnić treści wysokiej jakości od złych.
Internet jest pełen postów, w których ludzie pytają o niezawodne detektory treści AI, takie jak ten:
Źródło:
https://www.reddit.com/r/ChatGPT/comments/13yo3xr/which_ai_content_detector_is_reliable/
Zazwyczaj istnieje wiele odpowiedzi opublikowanych przez innych użytkowników, z których każdy poleca inne narzędzie.
Są również komentarze, w których użytkownicy wspominają, że żadne narzędzie nie jest niezawodne.
Oprócz dostarczania anegdotycznych dowodów czasami idą dalej i udostępniają zrzuty ekranu, na których tekst niewątpliwie napisany przez człowieka, jest oznaczony jako wygenerowany przez sztuczną inteligencję lub odwrotnie.
Źródło: https://www.reddit.com/r/ChatGPT/comments/13yo3xr/comment/l09888o/
Ale czy ta dyskusja jest w jakikolwiek sposób istotna? Dlaczego mamy taką obsesję na punkcie znalezienia najlepszego narzędzia do wykrywania treści AI?
Uważam, że ma to związek z naszą tendencją do szukania najprostszych rozwiązań złożonych problemów.
Wielu właścicieli witryn widzi, że strony z niskiej jakości treściami generowanymi przez sztuczną inteligencję słabo radzą sobie w wyszukiwarce i dochodzi do podobnych wniosków. Skoro ustalenie, czy treści generowane przez AI są dobre, czy nie, wymaga czasu i wysiłku, dlaczego po prostu ich nie zakazać?
Takie podejście może wydawać się słuszne na pierwszy rzut oka, ale uważam je za kolejny przypadek wylewania dziecka z kąpielą.
Podobnie jak bezmyślne publikowanie treści wygenerowanych przez sztuczną inteligencję jest nieodpowiedzialne, całkowite zakazanie wszystkich treści AI jest równie złe.
Nie będę wdawał się w szczegóły i wymieniał wszystkich zalet automatyzacji w procesie tworzenia treści. Zamiast tego wróćmy do twierdzenia, które przedstawiłem na początku tego artykułu.
Czy ludzie są lepsi w wykrywaniu złych treści AI?
Większość ludzi nie jest wystarczająco zaznajomiona z treściami generowanymi przez sztuczną inteligencję, aby poprawnie je zidentyfikować. Mogą stać się w tym lepsi – pod warunkiem że mają kilka przykładów do wykorzystania jako dane szkoleniowe.
Jest to jeszcze bardziej prawdziwe, jeśli chodzi o wykrywanie złych treści AI.
Ponieważ detektory AI oceniają jedynie, czy tekst został napisany przez sztuczną inteligencję, nie możemy oczekiwać, że dostarczą nam odpowiedzi dotyczących jakości tekstu.
Dlatego proponuję traktować detektory AI jako przydatne narzędzia, a nie przeszkody, które autorzy muszą pokonać, aby ich artykuły zostały opublikowane na stronie.
Powiedzmy to sobie wprost – ludzie nie są doskonali.
Według worldmetrics.org błąd ludzki:
- powoduje około 90% wszystkich naruszeń danych;
- jest odpowiedzialny za około 80% wypadków w miejscu pracy;
- powoduje do 400 000 zgonów w sektorze opieki zdrowotnej każdego roku w USA.
Statystyki te nie przedstawiają pięknego obrazu.
Sytuacja staje się jeszcze gorsza, gdy spojrzymy na opis kursu zamieszczony na oficjalnej stronie University of Texas w Austin. Dowiadujemy się z niego, że:
„ludzie popełniają co najmniej trzy błędy (zwykle 5-7) na godzinę, gdy nie śpią, a ich liczba wzrasta do 11-15 na godzinę w przypadku skrajnego stresu lub zmęczenia”.
Jako ludzie popełniamy wiele błędów. Jednak czy omyłkowo oznaczamy teksty wygenerowane przez AI jako napisane przez człowieka? A jeśli tak, to jak często się to zdarza?
Co mówią badania na ten temat?
Badanie przeprowadzone w 2021 roku przez University of Washington wykazało, że osoby oceniające bez przeszkolenia rozróżniały tekst GPT-3 od tekstu napisanego przez człowieka na poziomie losowej szansy (mieli rację w około 50%).
Jednocześnie ich pewność co do udzielenia prawidłowej odpowiedzi pozostawała dość wysoka (około 50%) we wszystkich zadaniach.
Krótko mówiąc, oceniający nie docenili możliwości nowoczesnych modeli językowych i przecenili ich zdolność do odróżniania GPT-3 od tekstów pisanych przez ludzi.
Oto niektóre z wyjaśnień, które podali, aby udowodnić swój punkt widzenia:
Jak widać, mamy tu do czynienia z dwiema logicznymi interpretacjami tego samego tekstu, które prowadzą do bardzo różnych wniosków. Dopiero po treningu na wielu przykładach oceniający byli w stanie znacząco poprawić swoje wyniki.
Czy oznacza to, że przeciętna osoba nie ma szans na odkrycie prawdy? Nie, ale zgadywanie, co jest, a co nie jest generowane przez sztuczną inteligencję bez treningu, jest właśnie tym – zgadywaniem. Przypomina to raczej rzucanie monetą niż przeprowadzanie jakiejkolwiek technicznej oceny lub analizy.
Co możemy zrobić, aby poprawić te liczby?
Przede wszystkim zapoznać się z treściami generowanymi przez sztuczną inteligencję.
Wielu z nas już to robi – choć mimowolnie.
Jak wspomniałem na początku tego artykułu, internet w zastraszającym tempie zapełnia się treścią generowaną przez sztuczną inteligencję. Google – całkiem rozsądnie – zdecydowało się podjąć działania przeciwko temu, a teraz wszyscy nagle unikają tekstów generowanych przez AI jak zarazy.
Ale Google nie jest doskonałe, a złym treściom generowanym przez AI czasami udaje się wspiąć na szczyt wyników wyszukiwania. Są to momenty, w których mamy szansę się z nimi zetknąć i wyciągnąć wnioski. Przykładem może być BNN Breaking.
BNN Breaking był serwisem informacyjnym, który szybko zyskał na popularności. W ciągu pierwszych dwóch lat istnienia udało mu zbudować całkiem niezłą reputację. Znane strony internetowe, takie jak The Washington Post i The Guardian, linkowały do niego. Był również promowany przez Google News i MSN, portal internetowy należący do Microsoftu.
Strona została usunięta po incydencie, w którym zdjęcie znanego irlandzkiego gospodarza talk-show, Dave’a Fanninga, zostało omyłkowo dodane przez sztuczną inteligencję do artykułu opisującego przypadek nadużyć seksualnych.
Po dokładnym zbadaniu sprawy okazało się, że strona była wypełniona treściami generowanymi przez AI. New York Times szczegółowo opisał tę sprawę w tym artykule.
Dlaczego o tym wspominam? Ponieważ jest to idealny przykład wykorzystania sztucznej inteligencji w nieodpowiedzialny sposób, który mimo to zadziałał i przyniósł 10 milionów odwiedzających miesięcznie.
Jeśli włożymy tylko trochę więcej wysiłku w sprawdzanie danych i intensywną edycję wyników generowanych przez sztuczną inteligencję, możemy wykorzystać te same narzędzia w znacznie lepszy i niezawodny sposób.
Zapoznanie się z treściami AI
Nie musisz polegać na losowym przypadku, aby znaleźć przykłady artykułów napisanych przez sztuczną inteligencję. Możesz skorzystać z ChatGPT za darmo i wygenerować mnóstwo tekstów w zaledwie kilka minut. Następnie wystarczy zapoznać się z tymi artykułami, poszukując powtarzających się wzorców.
Pamiętasz badanie przeprowadzone przez naukowców z University of Washington? Trening z przykładami poprawił ogólną dokładność identyfikacji tekstów pisanych maszynowo i pisanych przez ludzi z 50 do 55%.
Naukowcy zauważają, że „znacząca różnica w ogólnej wydajności wynika głównie z domeny opowieści” i ma związek z wyeliminowaniem uprzedzeń, że maszyny nie mogą generować „kreatywnego” tekstu.
Mimo to, zapoznanie się z tekstami generowanymi przez sztuczną inteligencję ma swoje zalety.
Oto kilka znaków ostrzegawczych, że masz do czynienia z treścią wygenerowaną przez maszynę:
- akapity są długie i bardzo podobne pod względem długości;
- struktura artykułu pozostaje podobna, niezależnie od tematu;
- w tekście występuje wiele złożonych, technicznych terminów;
- tekst jest bardzo przewidywalny, tj. ma niską złożoność.
Oczywiście ta lista nie jest wyczerpująca, ale powinna dać ci wyobrażenie o tym, czego szukać.
Naprawianie słabych treści tworzonych przez AI
Ok, więc zidentyfikowałeś słabą treść stworzoną przez sztuczną inteligencję. Jak można to naprawić?
Istnieje wiele sposobów na poprawienie tych tekstów. Cały proces jest podobny do tego, który można zrobić podczas edytowania słabej treści napisanej przez człowieka.
Na jakie czynniki warto zwrócić szczególną uwagę?
- Tytuły generowane przez AI mogą być mało pomysłowe. Zmień tytuł, aby nadać swojemu artykułowi więcej osobowości.
- Jak wspomniano wyżej, sztuczna inteligencja ma tendencję do trzymania się jednej struktury, gdy tylko jest to możliwe. By złagodzić ten problem, podaj modelowi językowemu własną strukturę lub mocno edytuj tekst, dodając, zmieniając i usuwając nagłówki w razie potrzeby.
- Niektóre detektory treści AI mają problem z określonymi słowami lub frazami, które uważają za oznaki użycia AI. Jeśli twój artykuł będzie sprawdzany przez te narzędzia i chcesz uniknąć wykrycia, przydatne mogą być narzędzia do parafrazowania. Zastąpią one problematyczne słowa synonimami bez zmiany znaczenia.
- Sprawdź dane i przeprowadź własne badania na dany temat. Jeśli znajdziesz wiarygodne źródła, zacytuj je w swoim artykule, aby poprawić jego jakość.
- Powstrzymaj się od ślepego akceptowania wszystkiego, co daje Ci model językowy. Mieszaj i dopasowuj tekst do woli, aby stworzyć coś naprawdę interesującego. Dodaj kilka tabel i list, aby ułatwić czytanie artykułu.
- Podaj kilka przykładów z życia wziętych. Sztuczna inteligencja nie ma prawdziwych doświadczeń, które mogłaby opisać, ale Ty tak! Wykorzystaj to na swoją korzyść i zdobądź dodatkowe punkty, demonstrując jeden z elementów E-E-A-T.
- Usuń powtarzające się sekcje i zastąp je czymś nowym. Napisz nowe, albo poproś model językowy o opisanie konkretnej kwestii, która dobrze pasuje do ogólnego tematu artykułu.
Korzystanie ze sztucznej inteligencji w odpowiedzialny sposób
Gdybym miał skondensować przesłanie, które chcę przekazać w tym artykule w jednej myśli, byłoby ono następujące:
Nie ma nic złego w korzystaniu ze sztucznej inteligencji w celu usprawnienia procesu generowania treści. Musimy jednak robić to odpowiedzialnie.
Dotyczy to zarówno korzystania z modelu językowego do generowania tekstu, jak i korzystania z detektora treści AI, by określi, czy warto go opublikować.
W obu przypadkach mamy szansę pracować z narzędziami, które mogą wykonać naszą pracę za nas. Nie sądzę jednak, by przekazanie naszego zadania sztucznej inteligencji było dobrym rozwiązaniem.
Narzędzia AI nie są na tyle zaawansowane, by pozostawiać je bez opieki lub traktować to, co nam dają, jako w 100% prawdziwe. Nadal musimy sami włożyć trochę wysiłku.
Nawet edycja tekstu wygenerowanego przez sztuczną inteligencję jest krokiem we właściwym kierunku.
Ludzie z Originality.ai nadal uważają takie teksty za wygenerowane przez AI, ale nie zgadzam się z tą oceną.
Źródło: https://originality.ai/blog/ai-content-detection-accuracy
Podobnie jak w wielu innych obszarach SEO, to, czy nadal możemy uznać tekst za wygenerowany przez sztuczną inteligencję, czy nie, zależy od różnych czynników.
Przede wszystkim od tego, ile zmian wprowadziliśmy w artykule.
W którym momencie lub po ilu zmianach możemy twierdzić, że artykuł nie jest już generowany przez sztuczną inteligencję, ale przez człowieka? Trudno powiedzieć.
Niektórzy mogą twierdzić, że po kilku ulepszeniach nie mamy już do czynienia z edycją, ale z przepisywaniem artykułu. Ale znowu – granica między tymi dwoma jest niewyraźna.
Kiedy możemy bezpiecznie założyć, że to, co robimy, to przepisywanie artykułu, a nie jego edycja? Po tym, jak zmieniliśmy 50% artykułu? Mniej? Więcej?
Kto może podjąć decyzję i rozstrzygnąć tę kwestię?
Jak widać, jest tu więcej pytań niż odpowiedzi.
Przemyślenia końcowe
Najważniejsze jest to, że detektory treści AI – podobnie jak wszystkie narzędzia AI – nie mogą być traktowane jako nieomylne.
Podczas gdy ludzie popełniają błędy, korzystanie ze sztucznej inteligencji nie jest magicznym skrótem, który pomoże nam uniknąć błędów.
Mówiąc słowami JC Dentona, bohatera Deus Ex (gry wideo wydanej w 2000 roku):
„Istoty ludzkie mogą nie być doskonałe, ale program komputerowy z syntezą języka nie jest odpowiedzią na problemy świata”.
Czuję, że to samo dotyczy wszystkich narzędzi sztucznej inteligencji, które są obecnie tak popularne. Nie są one odpowiedzią na nasze problemy, ale mogą być znaczącą pomocą w osiągnięciu pożądanego rezultatu.
Musimy tylko mądrze podejść do tego, jak ich używamy i w jakim celu.