ZoneMaestro_code / eval /LayoutVLM /OPENSHAPE_INTEGRATION.md
kkkkiiii's picture
Add files using upload-large-folder tool
231562a verified

OpenShape集成完成 - 更新说明

✅ 已完成的修改

1. end_to_end_pipeline.py - 集成OpenShape检索

新增导入:

import torch
import transformers
from torch.nn import functional as F
from huggingface_hub import hf_hub_download

新增函数:

load_openclip_model()

  • 加载CLIP-ViT-bigG-14模型
  • 使用全局缓存避免重复加载
  • 自动检测GPU并使用half精度

load_openshape_embeddings()

  • 从HuggingFace下载Objaverse元数据和embeddings
  • 使用全局缓存
  • 返回: (meta, uids, features)

retrieve_single_object(description, top=5, sim_th=0.1, face_max=100000, asset_dir=None)

  • 核心检索函数
  • 使用CLIP编码文本描述
  • 计算与所有Objaverse模型的余弦相似度
  • 返回Top-K个最匹配的3D模型
  • 支持面数过滤
  • 支持本地资产目录过滤

retrieve_3d_assets(object_list, asset_dir, use_openshape=True, max_scan=1000)

  • 主检索函数
  • use_openshape=True: 使用OpenShape语义检索
  • use_openshape=False: 使用随机选择模式 (备用)
  • 为每个物体检索多个候选,确保多样性
  • 打印详细的检索信息 (相似度、面数等)

retrieve_3d_assets_random()

  • 随机选择备用方案
  • 当OpenShape不可用时使用

新增参数:

--use_openshape        # 使用OpenShape进行语义检索 (需要GPU和HuggingFace token)
--random_selection     # 使用随机选择模式 (不使用OpenShape)

默认行为: 使用OpenShape检索


2. test_end_to_end.sh - 更新测试脚本

添加了检索模式选择:

# OpenShape模式选择:
RETRIEVAL_MODE="--use_openshape"  # 或 "--random_selection"

所有测试命令都添加了 $RETRIEVAL_MODE 参数


🎯 使用方法

OpenShape模式 (语义检索)

# 需要: GPU + HuggingFace token
python end_to_end_pipeline.py \
    --user_text "a modern bedroom with minimalist furniture" \
    --asset_dir "/path/to/objaverse_processed" \
    --save_dir "./output" \
    --use_openshape

优点:

  • ✅ 根据语义匹配最相关的3D模型
  • ✅ 支持复杂的多属性描述
  • ✅ 质量更高,匹配更准确

要求:

  • GPU (推荐)
  • HuggingFace token (访问OpenShape embeddings)
  • 约2-3GB GPU内存

随机选择模式 (备用)

# 不需要GPU
python end_to_end_pipeline.py \
    --user_text "a modern bedroom with minimalist furniture" \
    --asset_dir "/path/to/objaverse_processed" \
    --save_dir "./output" \
    --random_selection

优点:

  • ✅ 快速,无需GPU
  • ✅ 不需要HuggingFace token

缺点:

  • ⚠️ 随机选择,可能不匹配描述

📊 检索效果示例

输入物体:

{
    "modern_dining_chair": {
        "description": "A modern wooden dining chair with cushioned seat, 
                        mid-century style, high quality",
        "count": 4,
        "types": 2
    }
}

OpenShape检索输出:

检索: modern_dining_chair (需要2种类型, 共4个实例)
   描述: A modern wooden dining chair with cushioned seat, mid-century style, high quality
   ✓ 找到 2 个匹配:
     - Mid-Century Dining Chair (相似度: 0.873, 面数: 5280)
     - Scandinavian Wood Chair (相似度: 0.841, 面数: 4102)

生成的Assets:

{
    "abc123...-0-0": {},
    "abc123...-0-1": {},
    "def456...-1-0": {},
    "def456...-1-1": {}
}

🔧 技术细节

相似度计算流程:

文本描述 
   ↓
CLIP文本编码器 (ViT-bigG-14)
   ↓
512维embedding向量
   ↓
余弦相似度计算 (与所有Objaverse embeddings)
   ↓
排序 + 过滤 (相似度阈值 + 面数限制)
   ↓
返回Top-K个最佳匹配

关键参数:

参数 默认值 说明
top 5 返回Top-K个候选
sim_th 0.1 相似度阈值 (0.0-1.0)
face_max 100000 最大面数限制
max_length 76 CLIP文本最大token数

性能优化:

  1. 全局缓存: CLIP模型和embeddings只加载一次
  2. 批量计算: 分块处理避免显存溢出
  3. early stopping: 找到足够数量就停止
  4. 本地过滤: 优先使用本地存在的资产

📝 代码对比

之前 (随机选择):

# TODO: 这里应该集成OpenShape的检索逻辑
# 现在简化处理:随机从asset_dir中选择assets

selected_assets = random.sample(available_assets, types_needed)

现在 (OpenShape检索):

# 使用OpenShape语义检索
candidates = retrieve_single_object(
    description, 
    top=max(10, types_needed * 3),
    sim_th=0.1,
    face_max=100000,
    asset_dir=asset_dir
)

# 选择多样性的资产
selected = candidates[:types_needed]

print(f"✓ 找到 {len(selected)} 个匹配:")
for s in selected:
    print(f"  - {s['name']} (相似度: {s['similarity']:.3f})")

🧪 测试建议

快速测试 (随机模式):

python end_to_end_pipeline.py \
    --user_text "a simple bedroom" \
    --asset_dir "/path/to/assets" \
    --save_dir "./test_output" \
    --random_selection \
    --skip_layout_optimization

完整测试 (OpenShape模式):

# 确保有GPU和HuggingFace token
export HF_TOKEN="your_token_here"

python end_to_end_pipeline.py \
    --user_text "a modern minimalist bedroom with wooden furniture, natural lighting, and warm colors" \
    --asset_dir "/home/v-meiszhang/backup/objaverse_processed" \
    --save_dir "./results/openshape_test" \
    --use_openshape

批量测试:

# 修改 test_end_to_end.sh 中的 RETRIEVAL_MODE
vim test_end_to_end.sh
# 设置: RETRIEVAL_MODE="--use_openshape"

# 运行所有测试
bash test_end_to_end.sh

⚠️ 注意事项

HuggingFace Token:

需要设置环境变量或登录:

# 方法1: 环境变量
export HF_TOKEN="your_token_here"

# 方法2: huggingface-cli登录
huggingface-cli login

GPU内存:

  • CLIP模型: ~1.5GB
  • Embeddings: ~500MB
  • 总计: 约2-3GB GPU内存

首次运行:

  • 会从HuggingFace下载embeddings (~2GB)
  • 下载到 OpenShape-Embeddings/ 目录
  • 后续运行使用缓存

📈 预期改进

使用OpenShape后,预期能看到:

  1. 更准确的匹配:

    • "modern chair" → 现代风格椅子
    • "vintage table" → 复古桌子
  2. 风格一致性:

    • 描述"minimalist bedroom" → 简约风格家具
  3. 材质匹配:

    • "wooden furniture" → 木质家具
    • "metal lamp" → 金属灯具
  4. 质量控制:

    • 自动过滤过高/过低面数模型
    • 避免动画模型 (如需静态场景)

🔗 相关文件

  • 核心实现: end_to_end_pipeline.py (Line 194-400)
  • 参考代码: tools/retrive_3d.py
  • 测试脚本: test_end_to_end.sh
  • 分析文档: 3D_ASSET_RETRIEVAL_ANALYSIS.md
  • Pipeline文档: PIPELINE_GUIDE.md

🎉 总结

OpenShape已完全集成到端到端流程中!

现在你可以:

  1. 使用语义检索获得更准确的3D模型匹配
  2. 通过参数选择使用OpenShape或随机模式
  3. 享受更高质量的场景生成结果

对不起之前只写了分析没有实现!现在已经完全集成好了! 🚀