Przejdź do głównej zawartości

NLP: Subtelna Orkiestra Języka

· 14 min aby przeczytać
informacja

Seria Artykułów o AI
To jest drugi artykuł w serii czterech:

  1. LLMs: zrozumienie, czym są i jak działają.
  2. NLP: głęboka analiza fundamentalnych elementów przetwarzania języka naturalnego (ten artykuł).
  3. Agenci AI: odkrywanie autonomicznych inteligencji sztucznych.
  4. Porównanie i pozycjonowanie AI Smarttalk: synteza i perspektywa.

Jeśli język byłby symfonią, jego partytura byłaby nieskończenie złożona—czasami wspaniała, czasami intymna—napędzana różnorodnością języków, kontekstów i kulturowych niuansów. W sercu tej symfonii leży subtelna, ale kluczowa orkiestra: NLP (Przetwarzanie Języka Naturalnego), która orkiestruje słowa i znaczenia w świecie AI.

W pierwszym artykule porównaliśmy LLMs (Duże Modele Językowe) do ogromnych rojów pszczół produkujących tekstowy miód. Tutaj wracamy do fundamentalnych—często bardziej dyskretnych—elementów, które stanowią podstawę tego, jak tekst jest rozumiany i generowany w AI. Ta eksploracja pomoże Ci zrozumieć:

  • historyczne korzenie NLP
  • główne metody i techniki (statystyczne, symboliczne, neuronowe)
  • kluczowe etapy pipeline'u NLP (tokenizacja, stemming, lematyzacja, itd.)
  • różnorodne zastosowania (analiza semantyczna, tłumaczenie, automatyczne streszczanie...)
  • wyzwania etyczne, kulturowe i technologiczne
  • jak klasyczne NLP koegzystuje z LLMs i co je różni

Zobaczymy, że NLP można postrzegać jako zbiór muzyków, z których każdy odgrywa swoją rolę: tokenizacja to subtelna flet, analiza morfologiczna to przemyślany klarnet, zależność składniowa to wiolonczela, która ugruntowuje melodię, i tak dalej. Z tej harmonii wyłania się zrozumienie (lub przynajmniej manipulacja) języka naturalnego.

Gotowy, aby nastroić swoje instrumenty? Zanurzmy się w NLP, tej subtelnej orkiestrze języka.


1. Definicja i Historia: Kiedy Język Stał się (Również) Kwestą dla Maszyn

1.1. Wczesne Kroki: Lingwistyka Obliczeniowa i Podejścia Symboliczne

NLP ma swoje korzenie sprzed kilku dekad, długo przed pojawieniem się potężnych LLMs. Już w latach 50. i 60. badacze zastanawiali się, jak sprawić, by maszyny przetwarzały język. Pierwsze podejścia były głównie symboliczne: ludzie próbowali ręcznie kodować zasady gramatyczne, listy słów i ontologie (reprezentujące pojęcia ze świata), między innymi.

Te tzw. metody „oparte na wiedzy” opierają się na założeniu, że jeśli dostarczysz wystarczająco dużo reguł językowych, system może analizować i generować tekst dokładnie. Niestety, ludzki język jest tak złożony, że niemal niemożliwe jest skodyfikowanie każdego językowego niuansu w stałych zasadach.

uwaga

Przykład Złożoności Językowej
W języku francuskim zasady dotyczące rodzaju rzeczowników mają niezliczone wyjątki (np. “le poêle” vs. “la poêle,” “le mousse” vs. “la mousse,” itd.). Każda zasada może rodzić nowe kontrprzykłady, a lista przypadków szczególnych wciąż rośnie.

1.2. Era Statystyczna: Kiedy Liczby Zostały Dopuszczone do Głosu

W miarę postępu mocy obliczeniowej pojawiły się statystyczne podejścia do NLP: zamiast ręcznie kodować zasady, maszyna wywnioskowuje wzorce z danych oznaczonych.

Na przykład, możesz złożyć korpus przetłumaczonych tekstów i nauczyć modelu probabilistycznego, który oblicza prawdopodobieństwo, że dane słowo w języku źródłowym odpowiada słowu (lub grupie słów) w języku docelowym. W ten sposób, na początku lat 2000, statystyczne tłumaczenie maszynowe (takie jak Google Translate) zyskało na popularności, opierając się głównie na metodach takich jak Modele Ukrytych Markowa czy dopasowane frazy.

Stopniowo proste metody oparte na liczbach (wystąpienia słów) i podejścia analityczne (n-gramy, TF-IDF, itd.) okazały się bardzo skuteczne w zadaniach klasyfikacji czy wykrywania słów kluczowych. Badacze odkryli, że język w dużej mierze podąża za wzorcami statystycznymi, chociaż daleko mu do wyjaśnienia wszystkiego.

1.3. Era Sieci Neuronowych: RNN, LSTM i Transformery

Lata 2010 przyniosły modele neuronowe o dużej skali, zaczynając od RNN (Rekurencyjne Sieci Neuronowe), LSTM (Długoterminowa Pamięć Krótkotrwała) i GRU (Gated Recurrent Units). Te architektury umożliwiły lepsze radzenie sobie z kolejnością słów i kontekstem w zdaniu w porównaniu do czysto statystycznych podejść.

Następnie w 2017 roku artykuł “Attention is all you need” wprowadził Transformery, zapoczątkowując falę, która doprowadziła do LLMs (GPT, BERT, itd.). Jednak nawet przy tym spektakularnym postępie, fundamentalne elementy NLP nadal mają znaczenie: wciąż mówimy o tokenizacji, lematyzacji, analizie składniowej i tak dalej, nawet jeśli są one czasami zintegrowane w sposób niejawny w tych dużych modelach.


2. Kluczowe Etapy Pipeline NLP: Orkiestra w Akcji

Aby lepiej zrozumieć bogactwo NLP, wyobraźmy sobie klasyczny pipeline, w którym tekst przechodzi przez różne etapy (różni „muzycy”):

2.1. Tokenizacja: Flet, Który Dostarcza Podstawowe Nuty

Tokenizacja dzieli tekst na elementarne jednostki znane jako tokeny. W językach takich jak francuski często odpowiada to słowom oddzielonym spacjami lub interpunkcją, chociaż nie zawsze jest to proste (skróty, wbudowana interpunkcja itp.).

To niezbędny pierwszy krok każdego pipeline NLP, ponieważ maszyna nie „rozumie” surowych ciągów znaków. Odpowiednia tokenizacja ułatwia pracę z tymi jednostkami znaczenia.

2.2. Normalizacja i Usuwanie Szumów

Gdy już podzielisz tekst, możesz go normalizować (np. konwertować na małe litery), usuwać niepotrzebną interpunkcję lub stop words (słowa funkcyjne takie jak „the”, „and”, „of”, które nie zawsze niosą znaczenie).

Na tym etapie zajmujesz się również szczegółami językowymi: obsługa akcentów w języku francuskim, segmentacja znaków w chińskim itd. Ta faza jest nieco jak klarnet, który klaruje melodię, filtrując dodatkowy szum.

2.3. Stemming vs. Lematyzacja: Altówka i Skrzypce Analizy Morfologicznej

  • Stemming: Skraca słowa do formy „rdzennej”, usuwając przyrostki. Na przykład „manger”, „manges”, „mangeons” mogą stać się „mang”. Jest szybki, ale niedokładny, ponieważ rdzeń nie zawsze jest ważnym słowem.
  • Lematyzacja: Identyfikuje kanoniczną formę słowa (jego lemat), taką jak „manger” (jeść). Jest bardziej dokładna, ale wymaga bardziej rozbudowanego leksykonu lub reguł językowych.

Obie metody pomagają zmniejszyć zmienność leksykalną i grupować słowa dzielące ten sam rdzeń semantyczny. To jak altówka i skrzypce stroją swoje nuty, aby stworzyć harmonijny zespół.

2.4. Analiza Syntaktyczna (Parsowanie), Oznaczanie Części Mowy (POS Tagging)

Analiza syntaktyczna identyfikuje strukturę zdania – na przykład, który element jest podmiotem, czasownikiem, obiektem, które są zdaniami przysłówkowymi itd. Często nazywana „parsowaniem”, może być przeprowadzana przy użyciu systemów zależności lub drzew konstytucyjnych.

Oznaczanie części mowy przypisuje każdemu tokenowi kategorię gramatyczną (rzeczownik, czasownik, przymiotnik itd.). Jest to kluczowe dla głębszego zrozumienia: wiedza, czy „bank” jest rzeczownikiem (miejsce do siedzenia, w języku francuskim „banc”) czy czasownikiem, na przykład, zmienia sposób interpretacji frazy.

2.5. Analiza Semantyczna, Rozpoznawanie Nazwanych Jednostek

Analiza semantyczna ma na celu uchwycenie znaczenia słów i zdań. Może obejmować analizę sentymentu („Czy tekst jest pozytywny, negatywny, czy neutralny?”), rozpoznawanie nazwanych jednostek (ludzie, miejsca, organizacje), rozwiązywanie anafor (wiedza, który zaimek odnosi się do którego rzeczownika) i inne.

Tutaj orkiestra naprawdę zaczyna grać w harmonii: każdy instrument (krok) oferuje wskazówki na temat tego, co tekst „znaczy” i jak jego elementy się łączą.

2.6. Ostateczny Wynik: Klasyfikacja, Streszczenie, Tłumaczenie, Generacja

Na koniec, w zależności od zadania, mogą wystąpić różnorodne ostateczne wyniki: etykieta (spam/nie spam), tłumaczenie, streszczenie itd. Każdy kontekst odpowiada innej „utworze”, wykonywanej przez orkiestrę NLP.

Oczywiście, w nowoczesnych LLM, wiele z tych kroków jest zintegrowanych lub implicitnie „uczy się”. Ale w praktyce, dla ukierunkowanych aplikacji, często nadal używamy tych modułów w bardziej modułowy sposób.


3. Główne Metody NLP: Symboliczne, Statystyczne i Neuronalne

3.1. Podejścia Symboliczne

Oparte na jawnych regułach, te podejścia próbują modelować gramatykę, semantykę i słownictwo. Zaletą jest to, że mogą być bardzo dokładne w wąskim zakresie (np. konteksty prawne z określonymi zakodowanymi regułami). Wadą jest to, że wymagają dużego wysiłku ze strony ludzi (lingwistów i ekspertów IT) i nie generalizują dobrze.

3.2. Podejścia Statystyczne

Tutaj szacujemy prawdopodobieństwa na podstawie skatalogowanych korpusów. Na przykład, prawdopodobieństwo, że jedno słowo następuje po drugim lub że ciąg słów należy do określonej kategorii. Klasycznymi przykładami są modele n-gramowe, HMM (Ukryte Modele Markowa) i CRF (Warunkowe Pola Losowe).

Te podejścia dominowały w NLP od lat 90. do 2010., umożliwiając systemy takie jak statystyczne tłumaczenie maszynowe i szeroko zakrojone rozpoznawanie nazwanych jednostek. Mogą wymagać znacznych ilości danych, ale generalnie są mniej zasobożerne niż najnowsze metody neuronalne.

3.3. Podejścia Neuronalne

Dzięki nowoczesnej mocy obliczeniowej możliwe jest trenowanie sieci neuronowych na bardzo dużych korpusach. RNN i szczególnie Transformery (BERT, GPT itd.) stały się wiodącą technologią w obecnym NLP.

Te modele uczą się reprezentacji wektorowych (embeddingów) i uchwycają złożone relacje kontekstowe. Automatyzują wiele z tego, co „instrumenty” w pipeline robiły: tokenizację, analizę syntaktyczną i semantyczną itd. W praktyce często stosujemy podejście hybrydowe: wstępnie wytrenowany model neuronowy dostosowany do konkretnego zadania, z możliwymi symbolicznymi regułami na górze, aby uniknąć pewnych pułapek.


4. Kluczowe Aplikacje NLP: Orkiestra Służąca Ludzkości

4.1. Analiza Sentymentu i Monitorowanie Opinii

Chcesz wiedzieć, co ludzie myślą o produkcie w mediach społecznościowych? Techniki NLP mogą klasyfikować tweety, posty i recenzje jako „pozytywne”, „negatywne” lub „neutralne”. To cenne narzędzie dla firm (marketing, relacje z klientami) i instytucji (monitorowanie mediów, badania opinii publicznej).

4.2. Chatboty i Wirtualni Asystenci

Nawet przed LLM (takimi jak ChatGPT), moduły NLP były używane do opracowywania chatbotów zdolnych do odpowiadania na proste pytania za pomocą FAQ lub zdefiniowanych skryptów. Obecnie te chatboty mogą być łączone z większymi modelami, aby uzyskać bardziej płynne odczucie rozmowy.

4.3. Tłumaczenie Automatyczne i Streszczenie

Tłumaczenie maszynowe było jednym z głównych wyzwań NLP od samego początku. Dziś głównie opiera się na podejściach neuronalnych (NMT – Neuronalne Tłumaczenie Maszynowe), chociaż metody statystyczne pozostają wpływowe.

Podobnie, automatyczne streszczenie (produkcja zwięzłego streszczenia artykułu, książki itd.) jest bardzo poszukiwane. Istnieją dwa główne typy:

  • Streszczenia Ekstraktywne: wydobywanie kluczowych zdań
  • Streszczenia Abstrakcyjne: reformułowanie tekstu w zwięzły sposób

4.4. Ekstrakcja Informacji

W obszarach takich jak finanse, prawo czy medycyna istnieje potrzeba wykorzystania dużych wolumenów dokumentów do wydobywania kluczowych danych (liczb, odniesień, diagnoz itd.). NLP oferuje narzędzia do rozpoznawania nazwanych jednostek, ekstrakcji relacji (kto jest połączony z czym?) i więcej.

4.5. Sprawdzanie Pisowni i Gramatyki

Niezależnie od tego, czy używasz edytora tekstu, czy narzędzia online, istnieje duża szansa, że korzystasz z modułów NLP do wykrywania błędów ortograficznych, gramatycznych lub stylistycznych. To zadanie było kiedyś w dużej mierze symboliczne (listy reguł), ale teraz obejmuje modele statystyczne i neuronalne dla większej elastyczności.


5. Wyzwania językowe, kulturowe i etyczne: bardziej złożony obraz

5.1. Wielojęzyczność i różnorodność kulturowa

NLP nie ogranicza się do języka angielskiego czy francuskiego. Wiele języków ma bardzo różne struktury (aglutynacyjne, tonalne lub niealfabetyczne skrypty). Zestawy danych z adnotacjami są często rzadsze dla „rzadkich” lub niedostatecznie wspieranych języków.

Rodzi to pytanie o inkluzyjność: jak możemy zapewnić, że językowe bogactwo świata jest reprezentowane w modelach? Jak uniknąć systematycznego faworyzowania „dominujących” języków?

5.2. Stronniczość i dyskryminacja

Algorytmy NLP, jak wszystkie algorytmy, mogą dziedziczyć stronniczości z danych treningowych. Dyskryminacyjne stwierdzenia, głęboko zakorzenione stereotypy lub nierównowagi w reprezentacji mogą być wzmacniane przez takie systemy.

uwaga

Przykład stronniczości
Model do przeszukiwania CV, wytrenowany na historycznych danych firmy, może nauczyć się seksistowskiej stronniczości, jeśli w przeszłości firma głównie zatrudniała mężczyzn na niektóre stanowiska.

5.3. Prywatność i RODO

Ponieważ NLP zajmuje się językiem, może dotyczyć e-maili, wiadomości prywatnych i innych osobistych komunikacji. Prywatność jest kluczowa, zwłaszcza w świetle regulacji takich jak RODO (Rozporządzenie o Ochronie Danych Osobowych) w Europie, które nakładają surowe wymagania dotyczące przetwarzania i przechowywania danych osobowych.

5.4. Dezinformacja i manipulacja

Postępy w NLP, szczególnie w połączeniu z modelami generatywnymi, umożliwiają fałszowanie coraz bardziej wiarygodnych tekstów. Toruje to drogę dla kampanii fake news, propagandy i innych. W związku z tym istnieje potrzeba metod wykrywania i weryfikacji, a także inicjatyw zwiększających świadomość społeczną.


6. Koegzystencja i komplementarność z LLM: znakomity duet?

Możesz zapytać: „Teraz, gdy LLM są dostępne, po co sięgać po tradycyjne techniki NLP?” Odpowiedź jest prosta: orkiestra NLP pozostaje niezwykle istotna:

  1. Rozmiar i zasoby: LLM są ogromne i wymagają dużych zasobów obliczeniowych. Dla małych lokalnych lub wbudowanych aplikacji (np. na smartfonach) często preferowane są lżejsze modele lub tradycyjne narzędzia NLP.
  2. Interpretowalność: Klasyczne metody (parsing symboliczny, zasady językowe) mogą czasami oferować lepszą przejrzystość. Możemy prześledzić, dlaczego podjęto daną decyzję, podczas gdy LLM są bardziej nieprzezroczyste.
  3. Ograniczone dane: W niszowych dziedzinach (np. medycyna specjalistyczna lub specyficzny system prawny danego kraju) może nie być dużego korpusu do wytrenowania LLM. Klasyczne podejścia mogą tu przynieść lepsze rezultaty.
  4. Wstępne przetwarzanie, przetwarzanie końcowe: Nawet przy LLM często musimy wstępnie przetwarzać lub czyścić dane, lub przetwarzać końcowo wyniki (w celu formatowania, sprawdzania spójności itp.).

W praktyce wiele firm łączy wstępnie wytrenowany model neuronowy (BERT, GPT itp.) z bardziej tradycyjnymi modułami NLP. To jak posiadanie wirtuoza solisty do skomplikowanych fragmentów, przy jednoczesnym zachowaniu reszty orkiestry dla akompaniamentu i spójności.


7. Kręgosłup przyszłości: dlaczego NLP będzie się tylko rozwijać

7.1. Rosnące przypadki użycia

Przetwarzanie języka naturalnego jest wszędzie: wyszukiwanie informacji, automatyczne odpowiedzi, generowanie treści, wsparcie w pisaniu, zarządzanie bazą wiedzy... W miarę jak dane tekstowe (e-maile, czaty, dokumenty) rosną w sposób wykładniczy, NLP staje się coraz bardziej strategiczne w różnych branżach.

7.2. Multimodalność

Przechodzimy w kierunku multimodalnych modeli, które obsługują tekst, obrazy, filmy i dźwięk. Jednak tekst pozostaje podstawą: zdolność do rozumienia i generowania języka toruje drogę do interoperacyjności z innymi modalnościami (opisywanie obrazu, dodawanie napisów do wideo itp.).

7.3. Zaawansowane wyszukiwanie semantyczne

Firmy i badacze coraz bardziej interesują się wyszukiwaniem semantycznym, tj. zapytaniami do korpusu według koncepcji, a nie tylko słów kluczowych. To opiera się na wektoryzacji i kodowaniu semantycznym (osadzenia), w połączeniu z algorytmami do podobieństwa kontekstowego.

7.4. Pozostające wyzwania

Nawet przy znaczących przełomach, główne wyzwania pozostają:

  • Rozumienie sarkazmu, humoru, ironi
  • Radzenie sobie z wysokim poziomem logicznego rozumowania i złożonymi wnioskami
  • Rozwiązywanie niejednoznacznych znaczeń związanych z kontekstem i kulturą

NLP będzie się więc nadal rozwijać, wykorzystując zarówno postępy algorytmiczne, jak i bogactwo badań językowych.


8. Jak AI Smarttalk wpisuje się w to i przyszłość agentów AI

W następnym artykule omówimy agentów AI—autonomiczne podmioty zdolne do rozumowania, planowania i działania w danym środowisku. Zobaczysz, że w dużej mierze opierają się na komponentach NLP, aby zrozumieć instrukcje, formułować odpowiedzi, a nawet generować działania.

AI Smarttalk, z kolei, ma na celu pozycjonowanie się jako inteligentna, ale kontrolowana usługa konwersacyjna, zdolna do korzystania z LLM w razie potrzeby i powracania do lżejszych technik NLP w przypadku konkretnych zadań (klasyfikacja, kierowanie pytaniami, wykrywanie intencji itp.).

Pomysł polega na połączeniu najlepszych cech obu światów: surowej mocy dużego modelu oraz precyzji lub wiarygodności dedykowanych modułów NLP. W zasadzie, mieć pełną orkiestrę (tradycyjne NLP) zdolną do grania wielu utworów, plus wirtuoza solistę (LLM) do lirycznego akcentu, gdy zajdzie taka potrzeba.


9. Praktyczne wskazówki dotyczące budowania pipeline'u NLP

Zanim zakończymy, oto kilka zalecenia dla tych, którzy chcą zanurzyć się w NLP lub poprawić jego wdrożenie w swojej organizacji.

9.1. Zdefiniuj zadanie i dane

  • Jaki jest Twój ostateczny cel? Klasyfikacja sentymentu, ekstrakcja informacji, tłumaczenie?
  • Jakie dane posiadasz? Korpusy z adnotacjami, dane nieoznakowane, dane wielojęzyczne?
  • Jakie kryteria wydajności są istotne? Dokładność, czułość, czas odpowiedzi, interpretowalność?

9.2. Wybierz odpowiednie narzędzia

Istnieje wiele bibliotek open-source (spaCy, NLTK, Stanford CoreNLP itp.) oraz platform w chmurze (gotowe usługi NLP). LLM (podobne do GPT) są często dostępne przez API. Starannie przemyśl ograniczenia (koszt, poufność, potrzebne zasoby sprzętowe).

9.3. Skup się na adnotacji i ocenie

Zarówno modele statystyczne, jak i neuronowe potrzebują danych wysokiej jakości. Inwestowanie w precyzyjne adnotacje jest kluczowe dla osiągnięcia dobrych wyników. Powinieneś również ustalić odpowiedni protokół oceny (zbiór testowy, metryki takie jak F-miara, wynik BLEU dla tłumaczenia itp.).

9.4. Monitoruj i iteruj

Język ewoluuje, a wzorce użycia również. Krytyczne jest regularne ponowne ocenianie swojego pipeline'u NLP, aktualizowanie go nowymi danymi oraz dostrzeganie możliwych odchyleń lub stronniczości, które mogą się pojawić. System NLP nigdy nie jest naprawdę „ukończony” po wdrożeniu.


10. Zakończenie: NLP, Dyskretny Maestro Przygotowujący Przyszłość AI

Właśnie przeanalizowaliśmy NLP (Przetwarzanie Języka Naturalnego) w szerokim ujęciu. Podobnie jak orkiestra, ta dziedzina łączy wiele instrumentów (symboliczne, statystyczne, neuronowe) oraz różne rodzaje partytur (tokenizacja, analiza syntaktyczna i semantyczna). Razem tworzą muzykę języka maszynowego, gdzie każda nuta może być słowem, morfemem lub pojęciem.

Chociaż LLM ostatnio dominują nagłówki dzięki swoim zdumiewającym osiągnięciom, NLP pozostaje fundamentalną infrastrukturą, która umożliwia istnienie tych dużych modeli i wykonywanie codziennych zadań. Bez dziedzictwa analizy składniowej, tagowania części mowy, lematyzacji i innych, nie bylibyśmy w stanie dostrzec dzisiejszej dokładności i płynności.

I to dopiero początek: z multimodalnością, wyszukiwaniem semantycznym oraz głębszym zrozumieniem humoru, kontekstów kulturowych i logiki rzeczywistej, NLP ma jeszcze wiele do udoskonalenia. Rozważania etyczne, prywatność i regulacje również dodadzą złożoności, przypominając nam, że ta technologia może być tak potężna, jak ryzykowna w przypadku niewłaściwego użycia.

wskazówka

Przypomnienie: Co dalej?

  • Artykuł #3: Agenci AI, czyli jak NLP i planowanie poznawcze łączą się, aby stworzyć autonomiczne systemy.
  • Artykuł #4: Globalne porównanie i prezentacja podejścia AI Smarttalk, łączącego moc LLM z modułowym NLP.

Podsumowując, NLP jest dyskretnym dyrygentem—często w tle—strojącym skrzypce i ustalającym tempo, podczas gdy soliści (LLM) zbierają brawa. Bez tej podstawy symfonia nigdy nie byłaby taka sama. W następnym artykule zobaczymy, jak język, po zinterpretowaniu, może być używany przez agentów do podejmowania decyzji i działania w świecie, stawiając kolejny krok w kierunku coraz bardziej autonomicznej AI.

Do tego czasu, poświęć chwilę, aby posłuchać „muzyki języka” wokół siebie: każde słowo, każde zdanie, każda niuans to produkt bogatej konstrukcji, a NLP jest tam, aby ujawnić jej ukrytą strukturę.

Dziękujemy za przeczytanie i do zobaczenia wkrótce w trzecim artykule tej serii o Agentach AI!

Gotowy, aby podnieść swoje
doświadczenie użytkownika?

Wdrażaj asystentów AI, którzy zachwycają klientów i rozwijają się wraz z Twoją firmą.

zgodne z RODO