AI ollamaにopen-webuiをかぶせた環境でRAGで回答精度を上げる 前回作った環境を用いて、RAG(検索拡張生成)を実現する手順を紹介します!環境構築がまだの場合はこちらの記事をご参照ください。RAGとはRAGとは、LLMと外部ソースから取得した知識を組み合わせることによって、例えばシステムにアップロードさ... 2025.02.14 AIIT系
AI Dockerでラクラク導入! ollamaで始めるローカルLLM体験 「LLMを自宅のPCで動かしたいけど、環境構築は難しそう…」そんな風に思っていませんか? 実は、ollamaを使えば、Dockerの環境があれば、誰でも簡単にローカルLLM環境を構築できるんです。この記事では、ollamaのインストールから... 2025.02.08 AIIT系