gitextract_kzntgr93/ ├── Access_APIs_Using_Langchain/ │ ├── LangChain_Complete_Course.ipynb │ └── requirements.txt ├── Advance RAG Hybrid Search/ │ └── Hybrid_Search_in_RAG.ipynb ├── Advance RAG Reranking from Scratch/ │ └── Reranking_from_Scratch.ipynb ├── Advance RAG with Hybrid Search and Reranker/ │ └── Hybrid_Search_and_reranking_in_RAG.ipynb ├── Chat with Multiple Doc using Astradb and Langchain/ │ └── Chat_With_Multiple_Doc(pdfs,_docs,_txt,_pptx)_using_AstraDB_and_Langchain.ipynb ├── Child_to_Parent_Retrieval.ipynb ├── ConversationEntityMemory.ipynb ├── Conversational_Summary_Memory.ipynb ├── FlashRerankPractical.ipynb ├── Generative AI Dataset/ │ ├── llama3.txt │ └── state_of_the_union.txt ├── Generative AI Interview Questions/ │ └── Generative_AI_Interview_Questions.docx ├── Google Gemini API with Python/ │ └── GeminiAPI_With_Python.ipynb ├── LCEL(Langchain_Expression_Language).ipynb ├── Langchain_memory_classes.ipynb ├── MergerRetriever_and_LongContextReorder.ipynb ├── MongoDB with Pinecone/ │ ├── Mongodb_with_Pinecone_Realtime_RAG_Pipeline_yt.ipynb │ └── Mongodb_with_Pinecone_Realtime_RAG_Pipeline_yt_Part2.ipynb ├── MultiModal RAG/ │ ├── Extract_Image,Table,Text_from_Document_MultiModal_Summrizer_AAG_App_YT.ipynb │ ├── Extract_Image,Table,Text_from_Document_MultiModal_Summrizer_RAG_App.ipynb │ ├── MultiModal RAG using Vertex AI AstraDB(Cassandra) & Langchain.ipynb │ ├── MultiModal_RAG_with_llamaIndex_and_LanceDB.ipynb │ └── Multimodal_RAG_with_Gemini_Langchain_and_Google_AI_Studio_Yt.ipynb ├── MultiModal RAG with Vertex AI/ │ └── MultiModal RAG using Vertex AI AstraDB(Cassandra) & Langchain.ipynb ├── Multilingual AI based Voice Assistant/ │ ├── .gitignore │ ├── README.md │ ├── app.py │ ├── genai_AI_Project.egg-info/ │ │ ├── PKG-INFO │ │ ├── SOURCES.txt │ │ ├── dependency_links.txt │ │ └── top_level.txt │ ├── multilingual_assistant.egg-info/ │ │ ├── PKG-INFO │ │ ├── SOURCES.txt │ │ ├── dependency_links.txt │ │ ├── requires.txt │ │ └── top_level.txt │ ├── requirements.txt │ ├── research/ │ │ └── trials.ipynb │ ├── setup.py │ ├── src/ │ │ ├── __init__.py │ │ └── helper.py │ └── template.py ├── QA_With_Doc_Using_LlamaIndex_Gemini/ │ ├── Data/ │ │ └── MLDOC.txt │ ├── Exception.py │ ├── Experiments/ │ │ ├── ChatWithDoc.ipynb │ │ └── storage/ │ │ ├── default__vector_store.json │ │ ├── docstore.json │ │ ├── graph_store.json │ │ ├── image__vector_store.json │ │ └── index_store.json │ ├── Logger.py │ ├── QAWithPDF/ │ │ ├── __init__.py │ │ ├── data_ingestion.py │ │ ├── embeddings.py │ │ └── model_api.py │ ├── StreamlitApp.py │ ├── Template.py │ ├── logs/ │ │ ├── 02_15_2024_16_21_43.log │ │ ├── 02_15_2024_16_22_49.log │ │ ├── 02_15_2024_16_23_52.log │ │ ├── 02_15_2024_16_26_42.log │ │ ├── 02_15_2024_16_27_41.log │ │ ├── 02_15_2024_16_45_53.log │ │ └── 02_15_2024_16_58_10.log │ ├── requirements.txt │ ├── setup.py │ └── storage/ │ ├── default__vector_store.json │ ├── docstore.json │ ├── graph_store.json │ ├── image__vector_store.json │ └── index_store.json ├── RAG App using Haystack & OpenAI/ │ └── RAG_Application_Using_Haystack_and_OpenAI.ipynb ├── RAG App using LLAMAINDEX & MistralAI/ │ └── RAG_Application_Using_LlamaIndex_and_Mistral_AI.ipynb ├── RAG App using Langchain Mistral Weaviate/ │ └── RAG_Application_Using_LangChain_Mistral_and_Weviate.ipynb ├── RAG App using Langchain OpenAI FAISS/ │ ├── RAG_Application_using_Langchain_OpenAI_API_and_FAISS.ipynb │ └── state_of_the_union.txt ├── RAG App with Mongo Vector Search & Gemma/ │ └── rag_with_huggingface_and_mongodb.ipynb ├── RAG Pipeline from Scratch/ │ └── RAG_Implementation_from _Scartch.ipynb ├── RAG_Fusion.ipynb ├── RAG_With_Knowledge_graph(Neo4j).ipynb ├── RAG_with_LLAMA3_1.ipynb ├── README.md ├── Roadmap of Generative AI/ │ └── Generative_AI_Roadmap.pptx ├── basic_retrieval_and_contextual_compression_retrieval.ipynb └── self_query_retrieval.ipynb