Scikit-Learn: TF-IDF

sklearn-TF-IDF Tf-idf — metoda liczenia wagi terminów w oparciu o ich częstość w dokumencie (tf, term frequency) oraz ich rozkład w całym korpusie (idf, inverse document frequency). Wagi Tf-idf faworyzują słowa występujące w niewielu dokumentach, ponieważ mają większą...

NLTK: N-gramy

nltk-n-gramy N-gramy to sekwencje następujących po sobie elementów. N = ilość elementów występujacych w sekwencji: 1-gram — unigram, 2-gram — bigram, 3-gram — trigram, 4-gram, 5-gram, itd. In [1]: tokens = "W tym zdaniu jest kilka wyrazów o różnej długości".split(" ")...

NLTK: tokenizacja i steaming

nltk-tokenizacja_i_steaming 3 najbardziej popularne tokenizatory z biblioteki NLTK SpaceTokenizer¶ w odróżnieniu od spaCy dzieli wyłącznie po spacji In [1]: from nltk.tokenize import SpaceTokenizer space_tokenizer = SpaceTokenizer() text = "Budynek powstawał w latach...

Analiza morfologiczna

Analiza morfologiczna – identyfikacja wszystkich form wyrazowych danego tokena w językach aglutynacyjnych i fleksyjnych (polski) Ujednoznacznienie fleksyjne – wybór jednej formy wyrazowej na podstawie kontekstu Forma wyrazowa – wykładnik + cechy...

Scikit-learn: wektoryzacja

sklearn-wektoryzacja Technika reprezentująca kolekcję dokumentów w postaci wektorów o stałej długości¶ In [4]: from sklearn.feature_extraction.text import CountVectorizer vectorizer = CountVectorizer() import spacy nlp = spacy.load('pl_core_news_sm') In [5]:...

SpaCy po polsku – Bag Of Words

spaCy_po_polsku-bag-of-words Bag-of-words (BoW) – technika uproszczonej reprezentacji tekstu. Polega na przekształeceniu sekwencji segmentów do policzonego zbioru segmentów. Kolejność segmentów nie ma znaczenia. Głównym zastosowaniem jest odwzorowanie...

NLTK: Bag Of Words

nltk-bag-of-words Bag-of-words (BoW) – technika uproszczonej reprezentacji tekstu. Polega na przekształeceniu sekwencji segmentów do policzonego zbioru segmentów. Kolejność segmentów nie ma znaczenia. Głównym zastosowaniem jest odwzorowanie podobieństwa...

SpaCy po polsku – lematyzacja

spaCy_po_polsku-lematyzacja In [1]: import spacy nlp = spacy.load("pl_core_news_sm") lematyzacja polega na sprowadzeniu słowa do formy bazowej¶ In [2]: doc = nlp("jem jemy jedzcie") for t in doc: print(f"{t.text:...

SpaCy po polsku – model statystyczny

spaCy_po_polsku-model_statystyczny In [2]: import spacy In [19]: nlp = spacy.load("pl_core_news_lg") In [20]: doc = nlp("Czarny kot zjadł rybę spod stołu i poszedł spać!") części mowy¶ In [21]: for token in doc:...