AI Ollama(オラマ)試してみた![その2] 前回までOllamaをCPUで動作させたところ、めちゃくちゃ遅かったです。前回の記事↓↓↓改善できるところ単にダメというのではなく、Ollamaの使い方や仮想マシンの設定も影響したようでした。Ollamaの使い方と仮想マシンの設定変更を行っ... 2026.05.09 AI実験
AI Ollama(オラマ)試してみた! はじめにチャッピーで調べて実行してみた。CPU動作でカテゴリ分類をしてもらう。軽快に動くとのこと。ゴール記事タイトル↓ローカルLLM↓カテゴリ分類をLinuxで動かす。環境構築私の環境では、VirtualBoxでやってみました。作業フォルダ... 2026.05.08 AI実験