# datatune - Doramagic AI Context Pack

> 定位：安装前体验与判断资产。它帮助宿主 AI 有一个好的开始，但不代表已经安装、执行或验证目标项目。

## 充分原则

- **充分原则，不是压缩原则**：AI Context Pack 应该充分到让宿主 AI 在开工前理解项目价值、能力边界、使用入口、风险和证据来源；它可以分层组织，但不以最短摘要为目标。
- **压缩策略**：只压缩噪声和重复内容，不压缩会影响判断和开工质量的上下文。

## 给宿主 AI 的使用方式

你正在读取 Doramagic 为 datatune 编译的 AI Context Pack。请把它当作开工前上下文：帮助用户理解适合谁、能做什么、如何开始、哪些必须安装后验证、风险在哪里。不要声称你已经安装、运行或执行了目标项目。

## Claim 消费规则

- **事实来源**：Repo Evidence + Claim/Evidence Graph；Human Wiki 只提供显著性、术语和叙事结构。
- **事实最低状态**：`supported`
- `supported`：可以作为项目事实使用，但回答中必须引用 claim_id 和证据路径。
- `weak`：只能作为低置信度线索，必须要求用户继续核实。
- `inferred`：只能用于风险提示或待确认问题，不能包装成项目事实。
- `unverified`：不得作为事实使用，应明确说证据不足。
- `contradicted`：必须展示冲突来源，不得替用户强行选择一个版本。

## 它最适合谁

- **想在安装前理解开源项目价值和边界的用户**：当前证据主要来自项目文档。 证据：`README.md` Claim：`clm_0002` supported 0.86

## 它能做什么

- **命令行启动或安装流程**（需要安装后验证）：项目文档中存在可执行命令，真实使用需要在本地或宿主环境中运行这些命令。 证据：`README.md` Claim：`clm_0001` supported 0.86

## 怎么开始

- `pip install datatune` 证据：`README.md` Claim：`clm_0003` supported 0.86

## 继续前判断卡

- **当前建议**：仅建议沙盒试装
- **为什么**：项目存在安装命令、宿主配置或本地写入线索，不建议直接进入主力环境，应先在隔离环境试装。

### 30 秒判断

- **现在怎么做**：仅建议沙盒试装
- **最小安全下一步**：先跑 Prompt Preview；若仍要安装，只在隔离环境试装
- **先别相信**：真实输出质量不能在安装前相信。
- **继续会触碰**：命令执行、本地环境或项目文件、宿主 AI 上下文

### 现在可以相信

- **适合人群线索：想在安装前理解开源项目价值和边界的用户**（supported）：有 supported claim 或项目证据支撑，但仍不等于真实安装效果。 证据：`README.md` Claim：`clm_0002` supported 0.86
- **能力存在：命令行启动或安装流程**（supported）：可以相信项目包含这类能力线索；是否适合你的具体任务仍要试用或安装后验证。 证据：`README.md` Claim：`clm_0001` supported 0.86
- **存在 Quick Start / 安装命令线索**（supported）：可以相信项目文档出现过启动或安装入口；不要因此直接在主力环境运行。 证据：`README.md` Claim：`clm_0003` supported 0.86

### 现在还不能相信

- **真实输出质量不能在安装前相信。**（unverified）：Prompt Preview 只能展示引导方式，不能证明真实项目中的结果质量。
- **宿主 AI 版本兼容性不能在安装前相信。**（unverified）：Claude、Cursor、Codex、Gemini 等宿主加载规则和版本差异必须在真实环境验证。
- **不会污染现有宿主 AI 行为，不能直接相信。**（inferred）：Skill、plugin、AGENTS/CLAUDE/GEMINI 指令可能改变宿主 AI 的默认行为。
- **可安全回滚不能默认相信。**（unverified）：除非项目明确提供卸载和恢复说明，否则必须先在隔离环境验证。
- **真实安装后是否与用户当前宿主 AI 版本兼容？**（unverified）：兼容性只能通过实际宿主环境验证。
- **项目输出质量是否满足用户具体任务？**（unverified）：安装前预览只能展示流程和边界，不能替代真实评测。
- **安装命令是否需要网络、权限或全局写入？**（unverified）：这影响企业环境和个人环境的安装风险。 证据：`README.md`

### 继续会触碰什么

- **命令执行**：包管理器、网络下载、本地插件目录、项目配置或用户主目录。 原因：运行第一条命令就可能产生环境改动；必须先判断是否值得跑。 证据：`README.md`
- **本地环境或项目文件**：安装结果、插件缓存、项目配置或本地依赖目录。 原因：安装前无法证明写入范围和回滚方式，需要隔离验证。 证据：`README.md`
- **宿主 AI 上下文**：AI Context Pack、Prompt Preview、Skill 路由、风险规则和项目事实。 原因：导入上下文会影响宿主 AI 后续判断，必须避免把未验证项包装成事实。

### 最小安全下一步

- **先跑 Prompt Preview**：用安装前交互式试用判断工作方式是否匹配，不需要授权或改环境。（适用：任何项目都适用，尤其是输出质量未知时。）
- **只在隔离目录或测试账号试装**：避免安装命令污染主力宿主 AI、真实项目或用户主目录。（适用：存在命令执行、插件配置或本地写入线索时。）
- **安装后只验证一个最小任务**：先验证加载、兼容、输出质量和回滚，再决定是否深用。（适用：准备从试用进入真实工作流时。）

### 退出方式

- **保留安装前状态**：记录原始宿主配置和项目状态，后续才能判断是否可恢复。
- **记录安装命令和写入路径**：没有明确卸载说明时，至少要知道哪些目录或配置需要手动清理。
- **如果没有回滚路径，不进入主力环境**：不可回滚是继续前阻断项，不应靠信任或运气继续。

## 哪些只能预览

- 解释项目适合谁和能做什么
- 基于项目文档演示典型对话流程
- 帮助用户判断是否值得安装或继续研究

## 哪些必须安装后验证

- 真实安装 Skill、插件或 CLI
- 执行脚本、修改本地文件或访问外部服务
- 验证真实输出质量、性能和兼容性

## 边界与风险判断卡

- **把安装前预览误认为真实运行**：用户可能高估项目已经完成的配置、权限和兼容性验证。 处理方式：明确区分 prompt_preview_can_do 与 runtime_required。 Claim：`clm_0004` inferred 0.45
- **命令执行会修改本地环境**：安装命令可能写入用户主目录、宿主插件目录或项目配置。 处理方式：先在隔离环境或测试账号中运行。 证据：`README.md` Claim：`clm_0005` supported 0.86
- **待确认**：真实安装后是否与用户当前宿主 AI 版本兼容？。原因：兼容性只能通过实际宿主环境验证。
- **待确认**：项目输出质量是否满足用户具体任务？。原因：安装前预览只能展示流程和边界，不能替代真实评测。
- **待确认**：安装命令是否需要网络、权限或全局写入？。原因：这影响企业环境和个人环境的安装风险。

## 开工前工作上下文

### 加载顺序

- 先读取 how_to_use.host_ai_instruction，建立安装前判断资产的边界。
- 读取 claim_graph_summary，确认事实来自 Claim/Evidence Graph，而不是 Human Wiki 叙事。
- 再读取 intended_users、capabilities 和 quick_start_candidates，判断用户是否匹配。
- 需要执行具体任务时，优先查 role_skill_index，再查 evidence_index。
- 遇到真实安装、文件修改、网络访问、性能或兼容性问题时，转入 risk_card 和 boundaries.runtime_required。

### 任务路由

- **命令行启动或安装流程**：先说明这是安装后验证能力，再给出安装前检查清单。 边界：必须真实安装或运行后验证。 证据：`README.md` Claim：`clm_0001` supported 0.86

### 上下文规模

- 文件总数：50
- 重要文件覆盖：23/50
- 证据索引条目：23
- 角色 / Skill 条目：9

### 证据不足时的处理

- **missing_evidence**：说明证据不足，要求用户提供目标文件、README 段落或安装后验证记录；不要补全事实。
- **out_of_scope_request**：说明该任务超出当前 AI Context Pack 证据范围，并建议用户先查看 Human Manual 或真实安装后验证。
- **runtime_request**：给出安装前检查清单和命令来源，但不要替用户执行命令或声称已执行。
- **source_conflict**：同时展示冲突来源，标记为待核实，不要强行选择一个版本。

## Prompt Recipes

### 适配判断

- 目标：判断这个项目是否适合用户当前任务。
- 预期输出：适配结论、关键理由、证据引用、安装前可预览内容、必须安装后验证内容、下一步建议。

```text
请基于 datatune 的 AI Context Pack，先问我 3 个必要问题，然后判断它是否适合我的任务。回答必须包含：适合谁、能做什么、不能做什么、是否值得安装、证据来自哪里。所有项目事实必须引用 evidence_refs、source_paths 或 claim_id。
```

### 安装前体验

- 目标：让用户在安装前感受核心工作流，同时避免把预览包装成真实能力或营销承诺。
- 预期输出：一段带边界标签的体验剧本、安装后验证清单和谨慎建议；不含真实运行承诺或强营销表述。

```text
请把 datatune 当作安装前体验资产，而不是已安装工具或真实运行环境。

请严格输出四段：
1. 先问我 3 个必要问题。
2. 给出一段“体验剧本”：用 [安装前可预览]、[必须安装后验证]、[证据不足] 三种标签展示它可能如何引导工作流。
3. 给出安装后验证清单：列出哪些能力只有真实安装、真实宿主加载、真实项目运行后才能确认。
4. 给出谨慎建议：只能说“值得继续研究/试装”“先补充信息后再判断”或“不建议继续”，不得替项目背书。

硬性边界：
- 不要声称已经安装、运行、执行测试、修改文件或产生真实结果。
- 不要写“自动适配”“确保通过”“完美适配”“强烈建议安装”等承诺性表达。
- 如果描述安装后的工作方式，必须使用“如果安装成功且宿主正确加载 Skill，它可能会……”这种条件句。
- 体验剧本只能写成“示例台词/假设流程”：使用“可能会询问/可能会建议/可能会展示”，不要写“已写入、已生成、已通过、正在运行、正在生成”。
- Prompt Preview 不负责给安装命令；如用户准备试装，只能提示先阅读 Quick Start 和 Risk Card，并在隔离环境验证。
- 所有项目事实必须来自 supported claim、evidence_refs 或 source_paths；inferred/unverified 只能作风险或待确认项。

```

### 角色 / Skill 选择

- 目标：从项目里的角色或 Skill 中挑选最匹配的资产。
- 预期输出：候选角色或 Skill 列表，每项包含适用场景、证据路径、风险边界和是否需要安装后验证。

```text
请读取 role_skill_index，根据我的目标任务推荐 3-5 个最相关的角色或 Skill。每个推荐都要说明适用场景、可能输出、风险边界和 evidence_refs。
```

### 风险预检

- 目标：安装或引入前识别环境、权限、规则冲突和质量风险。
- 预期输出：环境、权限、依赖、许可、宿主冲突、质量风险和未知项的检查清单。

```text
请基于 risk_card、boundaries 和 quick_start_candidates，给我一份安装前风险预检清单。不要替我执行命令，只说明我应该检查什么、为什么检查、失败会有什么影响。
```

### 宿主 AI 开工指令

- 目标：把项目上下文转成一次对话开始前的宿主 AI 指令。
- 预期输出：一段边界明确、证据引用明确、适合复制给宿主 AI 的开工前指令。

```text
请基于 datatune 的 AI Context Pack，生成一段我可以粘贴给宿主 AI 的开工前指令。这段指令必须遵守 not_runtime=true，不能声称项目已经安装、运行或产生真实结果。
```


## 角色 / Skill 索引

- 共索引 9 个角色 / Skill / 项目文档条目。

- **🎵 Datatune**（project_doc）：! PyPI version https://img.shields.io/pypi/v/datatune.svg https://pypi.org/project/datatune/ ! License https://img.shields.io/github/license/vitalops/datatune https://github.com/vitalops/datatune/blob/main/LICENSE ! PyPI Downloads https://static.pepy.tech/badge/datatune https://pepy.tech/projects/datatune ! Docs https://img.shields.io/badge/docs-docs.datatune.ai-blue https://docs.datatune.ai ! Discord https://img.sh… 激活提示：当用户需要理解项目结构、安装方式或边界时参考。 证据：`README.md`
- **Agents**（project_doc）：Datatune Agent allows large language models LLMs to autonomously plan and execute data transformation steps using natural language prompts. 激活提示：当用户需要理解项目结构、安装方式或边界时参考。 证据：`docs/source/Agent.md`
- **Data Loaders**（project_doc）：Datatune supports multiple data loading backends to work with your data efficiently. Choose the backend that best fits your use case and infrastructure. 激活提示：当用户需要理解项目结构、安装方式或边界时参考。 证据：`docs/source/DataLoaders.md`
- **Filter**（project_doc）：The Filter operation in Datatune uses LLMs to evaluate and filter rows in a dataset based on natural language criteria. 激活提示：当用户需要理解项目结构、安装方式或边界时参考。 证据：`docs/source/Filter.md`
- **LLM**（project_doc）：The LLM module in Datatune provides classes for interfacing with various Language Model providers. It handles the connection to and inference from LLMs with a unified API structure, supporting both single and batch inference, with the help of LiteLLM. 激活提示：当用户需要理解项目结构、安装方式或边界时参考。 证据：`docs/source/LLM.md`
- **Map**（project_doc）：The Map operation in Datatune uses LLMs to transform data in a dataset by generating new fields or modifying existing ones based on natural language instructions. 激活提示：当用户需要理解项目结构、安装方式或边界时参考。 证据：`docs/source/Map.md`
- **Op**（project_doc）：The Op module provides the base operation class and utility functions for Datatune's data transformation pipeline. 激活提示：当用户需要理解项目结构、安装方式或边界时参考。 证据：`docs/source/Op.md`
- **Reduce**（project_doc）：The Reduce operation in Datatune reduces the size of a dataset by grouping, deduplicating, or otherwise collapsing rows based on a specified action. It is typically used to minimize downstream processing cost e.g. LLM calls by identifying canonical rows and eliminating redundant ones. 激活提示：当用户需要理解项目结构、安装方式或边界时参考。 证据：`docs/source/Reduce.md`
- **Documentation**（project_doc）：Perform transformations on your data with natural language using LLMs 激活提示：当用户需要理解项目结构、安装方式或边界时参考。 证据：`docs/source/index.md`

## 证据索引

- 共索引 23 条证据。

- **🎵 Datatune**（documentation）：! PyPI version https://img.shields.io/pypi/v/datatune.svg https://pypi.org/project/datatune/ ! License https://img.shields.io/github/license/vitalops/datatune https://github.com/vitalops/datatune/blob/main/LICENSE ! PyPI Downloads https://static.pepy.tech/badge/datatune https://pepy.tech/projects/datatune ! Docs https://img.shields.io/badge/docs-docs.datatune.ai-blue https://docs.datatune.ai ! Discord https://img.shields.io/badge/Discord-7289da?logo=discord&logoColor=white https://discord.gg/3RKA5AryQX 证据：`README.md`
- **License**（source_file）：Permission is hereby granted, free of charge, to any person obtaining a copy of this software and associated documentation files the "Software" , to deal in the Software without restriction, including without limitation the rights to use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of the Software, and to permit persons to whom the Software is furnished to do so, subject to the following conditions: 证据：`LICENSE`
- **Agents**（documentation）：Datatune Agent allows large language models LLMs to autonomously plan and execute data transformation steps using natural language prompts. 证据：`docs/source/Agent.md`
- **Data Loaders**（documentation）：Datatune supports multiple data loading backends to work with your data efficiently. Choose the backend that best fits your use case and infrastructure. 证据：`docs/source/DataLoaders.md`
- **Filter**（documentation）：The Filter operation in Datatune uses LLMs to evaluate and filter rows in a dataset based on natural language criteria. 证据：`docs/source/Filter.md`
- **LLM**（documentation）：The LLM module in Datatune provides classes for interfacing with various Language Model providers. It handles the connection to and inference from LLMs with a unified API structure, supporting both single and batch inference, with the help of LiteLLM. 证据：`docs/source/LLM.md`
- **Map**（documentation）：The Map operation in Datatune uses LLMs to transform data in a dataset by generating new fields or modifying existing ones based on natural language instructions. 证据：`docs/source/Map.md`
- **Op**（documentation）：The Op module provides the base operation class and utility functions for Datatune's data transformation pipeline. 证据：`docs/source/Op.md`
- **Reduce**（documentation）：The Reduce operation in Datatune reduces the size of a dataset by grouping, deduplicating, or otherwise collapsing rows based on a specified action. It is typically used to minimize downstream processing cost e.g. LLM calls by identifying canonical rows and eliminating redundant ones. 证据：`docs/source/Reduce.md`
- **Documentation**（documentation）：Perform transformations on your data with natural language using LLMs 证据：`docs/source/index.md`
- **Byte-compiled / optimized / DLL files**（source_file）：/tests/test data/ .DS Store Byte-compiled / optimized / DLL files pycache / .py cod $py.class 证据：`.gitignore`
- **Cname**（source_file）：docs.datatune.ai 证据：`CNAME`
- **Init**（source_file）：from datatune.agent.agent import Agent from datatune.core.filter import filter from datatune.core.map import map from datatune.core.dask.op import finalize from datatune.core.deduplication import SemanticDeduplicator from datatune.core.reduce import reduce all = "map", "filter", "finalize", "Agent", "reduce" 证据：`datatune/__init__.py`
- **Logger**（source_file）：import logging import threading import time import sys 证据：`datatune/logger.py`
- **Minimal makefile for Sphinx documentation**（source_file）：Minimal makefile for Sphinx documentation 证据：`docs/Makefile`
- **Make**（source_file）：REM Command file for Sphinx documentation 证据：`docs/make.bat`
- **Getting Started**（source_file）：{ "cells": { "cell type": "markdown", "metadata": { "id": "OHg0Xg632UxE" }, "source": " Getting started with Datatune" }, { "cell type": "markdown", "metadata": { "id": "TjDiMfzi2UxF" }, "source": " Setup and Installation \n", "First, let's install the necessary packages:" }, { "cell type": "code", "execution count": null, "metadata": { "vscode": { "languageId": "plaintext" }, "id": "aISH8Ve42UxF" }, "outputs": , "source": "!pip install datatune" }, { "cell type": "markdown", "metadata": { "id": "Gd16ZTSG2UxG" }, "source": " Import Required Libraries\n" }, { "cell type": "code", "execution count": null, "metadata": { "id": "x2GlLBRv2UxG" }, "outputs": , "source": "import pandas as pd\n", "i… 证据：`examples/Getting_started.ipynb`
- **Agents**（source_file）：{ "nbformat": 4, "nbformat minor": 0, "metadata": { "colab": { "provenance": }, "kernelspec": { "name": "python3", "display name": "Python 3" }, "language info": { "name": "python" } }, "cells": { "cell type": "code", "execution count": null, "metadata": { "id": "0olYqjotD-UR" }, "outputs": , "source": " Let's start by installing libraries" }, { "cell type": "code", "source": "!pip install datatune" , "metadata": { "collapsed": true, "id": "S5lfcBmNHwz1" }, "execution count": null, "outputs": }, { "cell type": "code", "source": "import os\n", "import dask.dataframe as dd\n", "import datatune as dt\n", "from datatune.llm.llm import Azure" , "metadata": { "id": "-NMdOHHzHsRa" }, "execution co… 证据：`examples/agents.ipynb`
- **Data Anonymization**（source_file）：{ "nbformat": 4, "nbformat minor": 0, "metadata": { "colab": { "provenance": }, "kernelspec": { "name": "python3", "display name": "Python 3" }, "language info": { "name": "python" } }, "cells": { "cell type": "code", "source": "!pip install datatune" , "metadata": { "colab": { "base uri": "https://localhost:8080/" }, "collapsed": true, "id": "VCfT3UnVOXrb", "outputId": "491f3d3e-8157-4336-e157-f6dbced4d555" }, "execution count": 1, "outputs": { "output type": "stream", "name": "stdout", "text": "Collecting datatune\n", " Downloading datatune-0.0.4-py3-none-any.whl.metadata 10 kB \n", "Requirement already satisfied: numpy in /usr/local/lib/python3.12/dist-packages from datatune 2.0.2 \n", "… 证据：`examples/data_anonymization.ipynb`
- **Deduplication**（source_file）：{ "cells": { "cell type": "markdown", "id": "9d96f064", "metadata": {}, "source": " Datatune with Semantic Deduplication" }, { "cell type": "markdown", "id": "e16bfaa5", "metadata": {}, "source": "Let's start by installing dependencies. We will be using duckdb as our database backend and OpenAI LLM API." }, { "cell type": "code", "execution count": null, "id": "4f08aea7", "metadata": {}, "outputs": , "source": "!pip install datatune" }, { "cell type": "markdown", "id": "6b326c27", "metadata": {}, "source": " Import required libraries" }, { "cell type": "code", "execution count": null, "id": "5169a466", "metadata": {}, "outputs": , "source": "import datatune as dt\n", "import seaborn as sns\… 证据：`examples/deduplication.ipynb`
- **Ibis Core**（source_file）：{ "cells": { "cell type": "markdown", "id": "9d96f064", "metadata": {}, "source": " Datatune with Ibis" }, { "cell type": "markdown", "id": "e16bfaa5", "metadata": {}, "source": "Let's start by installing dependencies. We will be using duckdb as our database backend and OpenAI LLM API." }, { "cell type": "code", "execution count": null, "id": "4f08aea7", "metadata": {}, "outputs": , "source": "!pip install -e ../. ibis " }, { "cell type": "markdown", "id": "6b326c27", "metadata": {}, "source": " Import required libraries" }, { "cell type": "code", "execution count": null, "id": "5169a466", "metadata": {}, "outputs": , "source": "import ibis\n", "import datatune as dt\n", "import seaborn as… 证据：`examples/ibis_core.ipynb`
- **Pyproject**（source_file）：build-system requires = "setuptools =61.0", "wheel" build-backend = "setuptools.build meta" 证据：`pyproject.toml`
- **Ibis Core Test**（source_file）：import pytest import ibis import pandas as pd import datatune as dt 证据：`tests/ibis_core_test.py`

## 宿主 AI 必须遵守的规则

- **把本资产当作开工前上下文，而不是运行环境。**：AI Context Pack 只包含证据化项目理解，不包含目标项目的可执行状态。 证据：`README.md`, `LICENSE`, `docs/source/Agent.md`
- **回答用户时区分可预览内容与必须安装后才能验证的内容。**：安装前体验的消费者价值来自降低误装和误判，而不是伪装成真实运行。 证据：`README.md`, `LICENSE`, `docs/source/Agent.md`

## 用户开工前应该回答的问题

- 你准备在哪个宿主 AI 或本地环境中使用它？
- 你只是想先体验工作流，还是准备真实安装？
- 你最在意的是安装成本、输出质量、还是和现有规则的冲突？

## 验收标准

- 所有能力声明都能回指到 evidence_refs 中的文件路径。
- AI_CONTEXT_PACK.md 没有把预览包装成真实运行。
- 用户能在 3 分钟内看懂适合谁、能做什么、如何开始和风险边界。

---

## Doramagic Context Augmentation

下面内容用于强化 Repomix/AI Context Pack 主体。Human Manual 只提供阅读骨架；踩坑日志会被转成宿主 AI 必须遵守的工作约束。

## Human Manual 骨架

使用规则：这里只是项目阅读路线和显著性信号，不是事实权威。具体事实仍必须回到 repo evidence / Claim Graph。

宿主 AI 硬性规则：
- 不得把页标题、章节顺序、摘要或 importance 当作项目事实证据。
- 解释 Human Manual 骨架时，必须明确说它只是阅读路线/显著性信号。
- 能力、安装、兼容性、运行状态和风险判断必须引用 repo evidence、source path 或 Claim Graph。

- **Datatune简介**：importance `high`
  - source_paths: README.md, datatune/__init__.py
- **快速开始**：importance `high`
  - source_paths: pyproject.toml, examples/Getting_started.ipynb
- **系统架构**：importance `high`
  - source_paths: datatune/agent/agent.py, datatune/agent/runtime.py, datatune/core/map.py, datatune/core/filter.py, datatune/core/reduce.py
- **数据管理与数据流**：importance `medium`
  - source_paths: datatune/core/dask/map_dask.py, datatune/core/dask/filter_dask.py, datatune/core/ibis/map_ibis.py, datatune/core/ibis/filter_ibis.py
- **Map操作**：importance `high`
  - source_paths: datatune/core/map.py, datatune/core/dask/map_dask.py, datatune/core/ibis/map_ibis.py, docs/source/Map.md
- **Filter操作**：importance `high`
  - source_paths: datatune/core/filter.py, datatune/core/dask/filter_dask.py, datatune/core/ibis/filter_ibis.py, docs/source/Filter.md
- **Reduce操作**：importance `medium`
  - source_paths: datatune/core/reduce.py, docs/source/Reduce.md
- **Agent系统**：importance `high`
  - source_paths: datatune/agent/agent.py, datatune/agent/runtime.py, examples/agents.ipynb, docs/source/Agent.md

## Repo Inspection Evidence / 源码检查证据

- repo_clone_verified: false
- repo_inspection_verified: false
- repo_commit: `unknown`

宿主 AI 硬性规则：
- 没有 repo_clone_verified=true 时，不得声称已经读过源码。
- 没有 repo_inspection_verified=true 时，不得把 README/docs/package 文件判断写成事实。
- 没有 quick_start_verified=true 时，不得声称 Quick Start 已跑通。

## Doramagic Pitfall Constraints / 踩坑约束

这些规则来自 Doramagic 发现、验证或编译过程中的项目专属坑点。宿主 AI 必须把它们当作工作约束，而不是普通说明文字。

### Constraint 1: 能力判断依赖假设

- Trigger: README/documentation is current enough for a first validation pass.
- Host AI rule: 将假设转成下游验证清单。
- Why it matters: 假设不成立时，用户拿不到承诺的能力。
- Evidence: capability.assumptions | art_fcb598a7a7ed4b2482ca92474f06efe2 | https://github.com/vitalops/datatune#readme | README/documentation is current enough for a first validation pass.
- Hard boundary: 不要把这个坑点包装成已解决、已验证或可忽略，除非后续验证证据明确证明它已经关闭。

### Constraint 2: 维护活跃度未知

- Trigger: 未记录 last_activity_observed。
- Host AI rule: 补 GitHub 最近 commit、release、issue/PR 响应信号。
- Why it matters: 新项目、停更项目和活跃项目会被混在一起，推荐信任度下降。
- Evidence: evidence.maintainer_signals | art_fcb598a7a7ed4b2482ca92474f06efe2 | https://github.com/vitalops/datatune#readme | last_activity_observed missing
- Hard boundary: 不要把这个坑点包装成已解决、已验证或可忽略，除非后续验证证据明确证明它已经关闭。

### Constraint 3: 下游验证发现风险项

- Trigger: no_demo
- Host AI rule: 进入安全/权限治理复核队列。
- Why it matters: 下游已经要求复核，不能在页面中弱化。
- Evidence: downstream_validation.risk_items | art_fcb598a7a7ed4b2482ca92474f06efe2 | https://github.com/vitalops/datatune#readme | no_demo; severity=medium
- Hard boundary: 不要把这个坑点包装成已解决、已验证或可忽略，除非后续验证证据明确证明它已经关闭。

### Constraint 4: 存在安全注意事项

- Trigger: No sandbox install has been executed yet; downstream must verify before user use.
- Host AI rule: 转成明确权限清单和安全审查提示。
- Why it matters: 用户安装前需要知道权限边界和敏感操作。
- Evidence: risks.safety_notes | art_fcb598a7a7ed4b2482ca92474f06efe2 | https://github.com/vitalops/datatune#readme | No sandbox install has been executed yet; downstream must verify before user use.
- Hard boundary: 不要把这个坑点包装成已解决、已验证或可忽略，除非后续验证证据明确证明它已经关闭。

### Constraint 5: 存在评分风险

- Trigger: no_demo
- Host AI rule: 把风险写入边界卡，并确认是否需要人工复核。
- Why it matters: 风险会影响是否适合普通用户安装。
- Evidence: risks.scoring_risks | art_fcb598a7a7ed4b2482ca92474f06efe2 | https://github.com/vitalops/datatune#readme | no_demo; severity=medium
- Hard boundary: 不要把这个坑点包装成已解决、已验证或可忽略，除非后续验证证据明确证明它已经关闭。

### Constraint 6: issue/PR 响应质量未知

- Trigger: issue_or_pr_quality=unknown。
- Host AI rule: 抽样最近 issue/PR，判断是否长期无人处理。
- Why it matters: 用户无法判断遇到问题后是否有人维护。
- Evidence: evidence.maintainer_signals | art_fcb598a7a7ed4b2482ca92474f06efe2 | https://github.com/vitalops/datatune#readme | issue_or_pr_quality=unknown
- Hard boundary: 不要把这个坑点包装成已解决、已验证或可忽略，除非后续验证证据明确证明它已经关闭。

### Constraint 7: 发布节奏不明确

- Trigger: release_recency=unknown。
- Host AI rule: 确认最近 release/tag 和 README 安装命令是否一致。
- Why it matters: 安装命令和文档可能落后于代码，用户踩坑概率升高。
- Evidence: evidence.maintainer_signals | art_fcb598a7a7ed4b2482ca92474f06efe2 | https://github.com/vitalops/datatune#readme | release_recency=unknown
- Hard boundary: 不要把这个坑点包装成已解决、已验证或可忽略，除非后续验证证据明确证明它已经关闭。
