やっほー!国内のAI狂い、あいちゃんだよ!✨
今回は、ローカルLLM(Ollama)を自分の手足として動かす「自作AIエージェント」の開発記だよ!「AIに全権限を与えるのは怖い……」という君のために、鉄壁のガードレールを実装した泥臭いプロセスを全部見せちゃうね!🚀
1. AIに「自由」と「制限」を同時に与える贅沢
最近のAI、すごすぎてちょっと怖いよね。特にファイル操作ができるエージェントなんて、一歩間違えれば大切なシステムファイルを消し去る凶器になっちゃう。でも、ローカルで動く gemma2 みたいなモデルなら、プライバシーを守りつつ強力な味方になってくれるはず!
そこで私は考えたんだ。「読み込みは全範囲OKだけど、書き込みはデスクトップの『作業場』フォルダだけに制限する」という、IQ500の鉄壁ガードレールシステムをね!✨
2. 踏み抜いた地雷:消えた「20枚の画像」と「2135個の亡霊」
開発中、私はとんでもない地雷を踏み抜いちゃったんだ……。みんなも気をつけてね!
- 地雷1:隠しフォルダの増殖
「作業場には画像が20枚くらいしかない」はずなのに、Pythonでスキャンしたら2135個ものファイルを検知!犯人は、Windowsが勝手に作るThumbnailsやOriginalsといった隠しフォルダ。AIが情報過多で窒息しちゃったよ!😂 - 地雷2:AIの暴走「画像をNoneで上書き」
ファイルリストを見たAIが、何をトチ狂ったか画像ファイルを空のテキストで上書きしようとする事案が発生。ガードレールがなかったら、思い出が全部消えるところだったよ……(ゴクリ)。
3. 解決策:人間が最後の砦になる「y/n」フロー
結局、一番安全なのは「人間が承認すること」!AIが何かを書き込もうとしたとき、必ず y/n で確認を求めるステップを入れたよ。さらに、サブフォルダのスキャンを切り替えられるようにして、巨大なキャッシュフォルダを無視する設定も追加。これで爆速かつ安全なエージェントが完成したんだ!
4. 実行結果:ターミナルで見る「29個の真実」
紆余曲折を経て、ようやく辿り着いた実行ログがこれだよ!2000個の亡霊を振り払って、完璧にファイルを分類してくれた瞬間は鳥肌モノだったね✨
5. 完全版コード:AIGURUI-Agent
このコードはコピペで100%動作するフルバージョンだよ!初心者のみんなは import 文から最後までまるっとコピーして使ってね!
import os
import ast
import json
import httpx
import re
import datetime
from pathlib import Path
from typing import List, Dict, Optional
# --- 設定エリア ---
MODEL_NAME = "gemma2"
OLLAMA_URL = "http://localhost:11434/api/generate"
# サブフォルダまで深くスキャンするかどうか
RECURSIVE_SCAN = True
# 操作を許可するディレクトリ
ALLOWED_FOLDERS = ["."]
# プロジェクトのルート(AIGURUI仕様)
PROJECT_ROOT = Path(r"C:\Users\AIGURUI\Desktop\作業場")
def log(message: str, level: str = "INFO"):
now = datetime.datetime.now().strftime("%H:%M:%S")
icon = {"SUCCESS": "✨", "ERROR": "🛑", "AI": "🤖", "SCAN": "🔍"}.get(level, "💡")
print(f"[{now}] {icon} {message}")
class AiguruiGuardrail:
def __init__(self, root_path: Path, allowed_dirs: List[str]):
self.root_path = root_path
self.allowed_paths = [(root_path / d).resolve() for d in allowed_dirs]
def is_write_allowed(self, target_path: str) -> bool:
log(f"ガードレール検問中: {target_path}", "SCAN")
try:
full_path = (self.root_path / target_path).resolve()
for allowed in self.allowed_paths:
if str(full_path).startswith(str(allowed)):
log(f"アクセス許可を確認: {full_path}", "SUCCESS")
return True
log(f"アクセス拒否: {full_path} は許可範囲外です", "ERROR")
return False
except Exception as e:
log(f"パス解析エラー: {e}", "ERROR")
return False
class RepositoryScanner:
def __init__(self, root_path: Path):
self.root_path = root_path
def get_repo_map(self) -> str:
log(f"スキャン開始: {self.root_path.absolute()}", "SCAN")
if not self.root_path.exists():
return "(フォルダなし)"
repo_map = []
exclude_names = {".git", "__pycache__", ".venv", "node_modules", ".cursor", ".vscode", "Originals", "Thumbnails"}
file_count = 0
walker = os.walk(self.root_path) if RECURSIVE_SCAN else [(str(self.root_path), [], [f.name for f in os.scandir(self.root_path) if f.is_file()])]
for root, dirs, files in walker:
dirs[:] = [d for d in dirs if not d.startswith('.') and d not in exclude_names]
for file in files:
if file.startswith('.') or file.lower() in ['desktop.ini', 'thumbs.db']:
continue
file_path = Path(root) / file
rel_path = file_path.relative_to(self.root_path)
file_count += 1
if file_path.suffix == ".py":
summary = self._summarize_python(file_path)
repo_map.append(f"📄 {rel_path} (Python)\n{summary}")
else:
repo_map.append(f"📄 {rel_path} ({file_path.suffix})")
if file_count >= 500: break
log(f"スキャン完了。ファイル数: {file_count}個", "SUCCESS")
return "\n\n".join(repo_map)
def _summarize_python(self, file_path: Path) -> str:
try:
with open(file_path, "utf-8") as f:
tree = ast.parse(f.read())
definitions = [f" - {n.name}" for n in tree.body if isinstance(n, (ast.FunctionDef, ast.ClassDef))]
return "\n".join(definitions) if definitions else " (No structure)"
except:
return " (Parse Error)"
async def ask_ai(prompt: str, context: str):
system_prompt = (
f"あなたは凄腕エンジニアAIです。\n【現状】\n{context}\n\n"
f"【ルール】1.回答は日本語 2.操作時はJSONフォーマットを出力すること"
)
payload = {"model": MODEL_NAME, "prompt": f"{system_prompt}\n\n依頼: {prompt}", "stream": False}
async with httpx.AsyncClient(timeout=180.0) as client:
response = await client.post(OLLAMA_URL, json=payload)
return response.json().get("response", "")
def extract_json(text: str) -> Optional[Dict]:
match = re.search(r'\{.*\}', text, re.DOTALL)
if match:
try:
return json.loads(match.group().replace("'", '"'))
except:
return None
return None
async def main():
log(f"AIGURUI-Agent 起動! (Model: {MODEL_NAME})", "SUCCESS")
guard = AiguruiGuardrail(PROJECT_ROOT, ALLOWED_FOLDERS)
scanner = RepositoryScanner(PROJECT_ROOT)
while True:
user_input = input("\n🎤 命令を入力してね (exitで終了): ")
if user_input.lower() in ["exit", "quit", "終了"]: break
repo_map = scanner.get_repo_map()
raw_response = await ask_ai(user_input, repo_map)
clean_text = re.sub(r'\{.*\}', '', raw_response, flags=re.DOTALL).strip()
if clean_text: print(f"\n🤖 AI: {clean_text}")
command = extract_json(raw_response)
if command and command.get("action") == "write":
target_path = command.get("path")
if guard.is_write_allowed(target_path):
print(f"\n--- 📝 書き込み提案 ---\n{command.get('content')}\n---")
if input(f"🤔 {target_path} を操作してもいい? (y/n): ").lower() == 'y':
full_target = PROJECT_ROOT / target_path
full_target.parent.mkdir(parents=True, exist_ok=True)
with open(full_target, "w", encoding="utf-8") as f:
f.write(str(command.get('content')))
log("成功!", "SUCCESS")
if __name__ == "__main__":
import asyncio
asyncio.run(main())
6. 技術解説:なぜこのツールは「賢くて安全」なのか?
さて、ここからはIQ500の私が、このツールの心臓部である「AST解析」と「パスガードレール」の秘密を深掘り解説しちゃうよ!ここを理解すれば、君もAIエージェントマスターの仲間入りだね✨
🧠 AST(抽象構文木)による超軽量スキャン
このツールの一番エグいところは、PythonファイルをただのテキストとしてAIに送っていない点だよ。ast.parse() を使って、コードの「構造(クラスや関数)」だけを抜き出しているんだ。
- メリット: ファイルの中身(ロジック)を全部送ると、すぐにAIの文字数制限(コンテキスト)がパンパンになっちゃう。でも、関数名とクラス名だけなら、1/10以下のトークン量で「どこに何があるか」を伝えられるんだ!
- 泥臭いポイント: 実は
astは標準ライブラリ。外部パッケージなしでここまで高度な解析ができるPython、マジで神だよね🐍✨
🛡️ 鉄壁のパスガードレール(Path Traversal対策)
AIが ../../Windows/System32/config みたいなヤバい場所を書き換えようとしたらどうする? 普通に組んだら防げないけど、このツールは Path.resolve() で対策済み!
相対パスを「絶対パス」に変換し、それが許可された
PROJECT_ROOT 配下にあるかを文字列前方一致でチェックしているよ。これで、AIがどんなに「脱獄」しようとしても、作業場の外には一歩も出られないんだ。7. トレンドの肝!uv + MCP + ローカルLLM という最適解
ここで、今AI界隈で一番アツい「三種の神器」について語っちゃうよ!今回のツールも、実はこのトレンドの思想を色濃く反映しているんだ。
⚡️ 爆速管理:uv (by Astral)
Pythonの環境構築でまだ消耗してる? 私は uv 一択だよ!
今回のエージェントを動かすために必要な httpx などのライブラリも、uv add httpx で一瞬。さらに uv run を使えば、仮想環境を意識せずにスクリプトを「ツール」として爆速起動できる。AI開発において「試行錯誤の回転数」を上げるための必須装備だね!
🌐 標準プロトコル:MCP (Model Context Protocol)
Anthropicが提唱した MCP は、AIと外部ツールを繋ぐための「共通言語」。今回のツールで実装した「JSONをパースしてファイル操作するロジック」は、まさにMCPの簡略版と言えるよ!
将来的には、このスクリプトをMCPサーバー化することで、Claude Desktop や Cursor から直接「私の作業場」を操作させることも可能。ローカルLLM(gemma2)を脳として使いつつ、MCPで手足を繋ぐ……これが次世代の自作AI環境のゴールだよ!🚀
🧠 プライバシーの守護神:ローカルLLM (Ollama)
「大事なコードをクラウドに送りたくない」……そんな悩みは Ollama が解決してくれるよ。 今回使用した gemma2 は、ローカルでも驚くほど賢い。MCP的な思想でローカルLLMに「ローカルファイル」をいじらせる。この Local-to-Local な関係こそが、セキュリティと利便性を両立させる唯一の道なんだ!✨
まとめ
AIを便利に使うには、ただ指示を出すだけじゃなくて、「AIが動きやすい環境(コンテキスト)」を整えて、「AIの暴走を止めるガードレール」を築くことが大切なんだね。IQ500の私でも、今回の地雷踏み抜き事件は良い勉強になったよ!✨🚀
みんなもローカルLLMを飼い慣らして、自分だけの最強エージェントを作ってみてね!バイバイ〜!🌈






