gitextract_fqx72n4r/ ├── .flake8 ├── .github/ │ └── workflows/ │ └── test.yml ├── .gitignore ├── .pre-commit-config.yaml ├── .readthedocs.yaml ├── Examples.ipynb ├── LICENSE ├── MANIFEST.in ├── README.md ├── docs/ │ ├── Makefile │ ├── make.bat │ ├── requirements.txt │ └── source/ │ ├── conf.py │ ├── index.md │ ├── main_classes/ │ │ ├── dependency_parser.md │ │ ├── named_entity_recognizer.md │ │ ├── normalizer.md │ │ ├── part_of_speech_tagger.md │ │ ├── sentence_splitter.md │ │ ├── sentiment_analyzer.md │ │ ├── stemmer_morph_analyzer.md │ │ ├── stopword_remover.md │ │ └── word_embeddings.md │ └── quickstart.md ├── pyproject.toml ├── setup.cfg ├── setup.py ├── tests/ │ └── test_general.py └── vnlp/ ├── __init__.py ├── bin/ │ ├── __init__.py │ └── vnlp.py ├── dependency_parser/ │ ├── ReadMe.md │ ├── __init__.py │ ├── _spu_context_utils.py │ ├── _treestack_utils.py │ ├── dependency_parser.py │ ├── resources/ │ │ └── DP_label_tokenizer.json │ ├── spu_context_dp.py │ ├── treestack_dp.py │ └── utils.py ├── named_entity_recognizer/ │ ├── ReadMe.md │ ├── __init__.py │ ├── _charner_utils.py │ ├── _spu_context_utils.py │ ├── charner.py │ ├── named_entity_recognizer.py │ ├── resources/ │ │ ├── CharNER_char_tokenizer.json │ │ └── NER_label_tokenizer.json │ ├── spu_context_ner.py │ └── utils.py ├── normalizer/ │ ├── ReadMe.md │ ├── __init__.py │ ├── _deasciifier.py │ └── normalizer.py ├── part_of_speech_tagger/ │ ├── ReadMe.md │ ├── __init__.py │ ├── _spu_context_utils.py │ ├── _treestack_utils.py │ ├── part_of_speech_tagger.py │ ├── resources/ │ │ └── PoS_label_tokenizer.json │ ├── spu_context_pos.py │ └── treestack_pos.py ├── resources/ │ ├── SPU_word_tokenizer_16k.model │ ├── TB_word_tokenizer.json │ ├── non_breaking_prefixes_tr.txt │ ├── turkish_known_words_lexicon.txt │ └── turkish_stop_words.txt ├── sentence_splitter/ │ ├── ReadMe.md │ ├── __init__.py │ └── sentence_splitter.py ├── sentiment_analyzer/ │ ├── ReadMe.md │ ├── __init__.py │ ├── _spu_context_bigru_utils.py │ ├── sentiment_analyzer.py │ └── spu_context_bigru_sentiment.py ├── stemmer_morph_analyzer/ │ ├── ReadMe.md │ ├── __init__.py │ ├── _melik_utils.py │ ├── _yildiz_analyzer.py │ ├── resources/ │ │ ├── ExactLookup.txt │ │ ├── StemListWithFlags_v2.txt │ │ ├── Stemmer_char_tokenizer.json │ │ ├── Stemmer_morph_tag_tokenizer.json │ │ └── Suffixes&Tags.txt │ └── stemmer_morph_analyzer.py ├── stopword_remover/ │ ├── ReadMe.md │ ├── __init__.py │ └── stopword_remover.py ├── tokenizer/ │ ├── ReadMe.md │ ├── __init__.py │ └── tokenizer.py ├── turkish_word_embeddings/ │ ├── ReadMe.md │ └── example.ipynb └── utils.py