Skip to content

基于深度学习的汉字字体补全系统(VQ-VAE+扩散模型)

License

Notifications You must be signed in to change notification settings

Ailyth99/HanziGen

 
 

Repository files navigation

HanziGen Logo

字生字:漢字字形補全系統

License Last Commit Stars

📌 專案簡介

「字生字」是一套基於深度學習的漢字字形補全系統,整合字型分析、缺字生成與字形向量化等自動化流程,協助設計師加速字型開發與補全工作。本系統可應用於字型設計,亦適合作為教學與研究的實作範例。

workflow

本系統以 潛在擴散模型(Latent Diffusion Model, LDM) 為核心,透過兩階段訓練策略有效降低運算成本,並提高生成品質。模型能學習目標字體的風格特徵,並以參考字形作為結構引導,生成對應的缺失字形。

mini_model

主要特色:

  • 模組化流程:整合字型分析至字形向量化一系列流程,並具備高度自訂性。
  • 低硬體門檻:僅需 4GB VRAM 的 NVIDIA 顯示卡,即可完成訓練與推論。
  • 高品質輸出:支援生成解析度達 512 × 512 像素以上的清晰字形圖像。

Important

  • 本專案非通用模型,每種目標字型皆需獨立完成完整訓練流程。

🏗️ 模型架構

本系統以 向量量化自編碼器(VQ-VAE) 建立潛在表示空間,並結合 潛在擴散模型(Latent Diffusion Model, LDM) 進行字形生成。VQ-VAE 負責將輸入字形壓縮為離散的潛在向量,保留風格與結構特徵;LDM 則在此潛在空間中執行加噪與還原過程以生成高品質、風格一致的補字輸出。

以下為模型整體架構示意圖:

model_architecture

訓練流程:

  • 訓練階段一:訓練 VQ-VAE,將字形圖像編碼為離散潛在向量,並重建原始圖像,以重建誤差(MSE)作為損失函數。
  • 訓練階段二:使用預先訓練好的 VQ-VAE,將目標與參考字形編碼為潛在向量,對目標向量加入雜訊後與參考向量拼接,送入 U-Net 預測雜訊,以預測誤差(MSE)作為損失函數。
  • 推論階段:從純雜訊出發,結合參考字形潛在向量,使用 DDIM 去噪流程,在潛在空間中逐步去噪還原,最終解碼生成缺失的目標字形圖像。

✨ 生成樣本

以下為本系統的字形生成樣本,展示模型在不同字體風格下的生成能力:

Note

第一排為參考字形,第二排為模型生成結果,第三排為目標字形。

samples


🚀 使用說明

1. 建置環境 ⚙️

此步驟將建立本專案所需的 Python 環境並安裝相關套件。

Important

  • 作業系統:Linux;Windows 使用者可考慮透過 WSL2 執行。
  • 硬體需求:至少 4GB VRAM 的 NVIDIA 顯示卡。
  • 驅動程式:相容於 CUDA 11.8 或以上版本的 NVIDIA 驅動程式。
  1. 下載本專案:
git clone https://github.com/wangwenho/HanziGen.git
  1. 建立 Conda 環境:

Note

若尚未安裝 Anaconda,請先前往 Anaconda 官方網站 下載並安裝對應版本。

conda create -n hanzigen python=3.12 -y
conda activate hanzigen
  1. 安裝 PyTorch:
pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu118
  1. 安裝其餘套件:
pip install -r requirements.txt

2. 準備字型檔案 🖋️

此步驟將準備專案所需的目標字型與參考字型檔案。

  1. 建立資料夾: 在專案根目錄建立建立 fonts/ 資料夾。

  2. 放置目標字型: 將欲補全的目標字型檔案(.ttf.otf 格式)放入 fonts/ 資料夾。

  3. 下載參考字型:

    1. 前往 Jigmo 網站 下載 Jigmo 字型作為參考字型。
    2. fonts/ 資料夾內建立 jigmo/ 子資料夾。
    3. 將下載的 jigmo.ttfjigmo2.ttfjigmo3.ttf 檔案放入 fonts/jigmo/ 資料夾。

Caution

  • 請確認目標字型的授權條款允許修改與再發布。
  • 請確保字型檔名不含空格或特殊字元。

Tip

  • 建議選用至少包含 2000 個漢字的目標字型,以獲得更好的補全效果。
📁 查看檔案結構
fonts/
├── [your_target_font].[ttf_or_otf]
└── jigmo/
    ├── jigmo.ttf
    ├── jigmo2.ttf
    └── jigmo3.ttf
  • [your_target_font].[ttf_or_otf]:欲補全的目標字型檔案。
  • jigmo/:存放參考字型的資料夾。
    • jigmo.ttfjigmo2.ttfjigmo3.ttf:Jigmo 系列參考字型檔案。

3. 分析字型漢字覆蓋率 📊

此步驟將分析目標字型與參考字型在 jf7000Unihan 字集中的漢字覆蓋情況,並產生對應的覆蓋與缺失字集。

  1. 設定參數:
    1. 開啟 scripts/analyze_font.sh
    2. 設定 TARGET_FONT_PATH 為你的目標字型路徑 (例如:"fonts/myfont.ttf")。
    3. 調整其他參數(可選)。
📋 查看腳本參數
  • TARGET_FONT_PATH:目標字型檔案路徑(字串)。
  • REFERENCE_FONTS_DIR:參考字型資料夾路徑(字串)。
  1. 執行腳本:
bash scripts/analyze_font.sh
  1. 查看輸出:
  • 覆蓋率統計:目標字型與參考字型對 jf7000Unihan 各子字集的覆蓋率將顯示於終端機。
  • 檔案輸出:覆蓋(covered.txt)與缺失(missing.txt)字集檔案將儲存在 charsets/ 資料夾中。
📊 查看覆蓋率統計
                        Jigmo jf7000 Coverage Statistics
┏━━━━━━━━━━━━━━━━━━━┳━━━━━━━┳━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━┓
┃ Charset           ┃ Total ┃ Covered ┃ Missing ┃ Covered Ratio ┃ Missing Ratio ┃
┡━━━━━━━━━━━━━━━━━━━╇━━━━━━━╇━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━┩
│ basic.txt         │  6373 │    6373 │       0 │       100.00% │         0.00% │
│ ext_cantonese.txt │   127 │     117 │      10 │        92.13% │         7.87% │
│ ext_japan.txt     │   534 │     533 │       1 │        99.81% │         0.19% │
│ ext_naming.txt    │   618 │     611 │       7 │        98.87% │         1.13% │
│ ext_taiwan.txt    │   810 │     700 │     110 │        86.42% │        13.58% │
│ jf7000_all.txt    │  8349 │    8221 │     128 │        98.47% │         1.53% │
└───────────────────┴───────┴─────────┴─────────┴───────────────┴───────────────┘
  • basic.txt:jf7000 漢字基本包。
  • ext_cantonese.txt:jf7000 港澳擴充包。
  • ext_japan.txt:jf7000 日文擴充包。
  • ext_naming.txt:jf7000 臺灣命名擴充包。
  • ext_taiwan.txt:jf7000 本土語言擴充包。
  • jf7000_all.txt:上述子字集的集合字集。

                    Jigmo unihan Coverage Statistics
┏━━━━━━━━━━━━━━━━━┳━━━━━━━┳━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━┓
┃ Charset         ┃ Total ┃ Covered ┃ Missing ┃ Covered Ratio ┃ Missing Ratio ┃
┡━━━━━━━━━━━━━━━━━╇━━━━━━━╇━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━┩
│ basic.txt       │ 20992 │   20992 │       0 │       100.00% │         0.00% │
│ compat.txt      │   472 │     472 │       0 │       100.00% │         0.00% │
│ compat_supp.txt │   542 │       0 │     542 │         0.00% │       100.00% │
│ ext_a.txt       │  6592 │    6592 │       0 │       100.00% │         0.00% │
│ ext_b.txt       │ 42720 │       1 │   42719 │         0.00% │       100.00% │
│ ext_c.txt       │  4154 │       0 │    4154 │         0.00% │       100.00% │
│ ext_d.txt       │   222 │       0 │     222 │         0.00% │       100.00% │
│ ext_e.txt       │  5762 │       0 │    5762 │         0.00% │       100.00% │
│ ext_f.txt       │  7473 │       0 │    7473 │         0.00% │       100.00% │
│ ext_g.txt       │  4939 │       0 │    4939 │         0.00% │       100.00% │
│ ext_h.txt       │  4192 │       0 │    4192 │         0.00% │       100.00% │
│ ext_i.txt       │   622 │       0 │     622 │         0.00% │       100.00% │
│ unihan_all.txt  │ 98682 │   28057 │   70625 │        28.43% │        71.57% │
└─────────────────┴───────┴─────────┴─────────┴───────────────┴───────────────┘
  • basic.txt:中日韓統一表意文字字集。
  • compat.txt:中日韓相容表意文字字集。
  • compat_supp.txt:中日韓相容表意文字補充字集。
  • ext_a.txtext_i.txt:中日韓統一表意文字擴充字集 A~I 區。
  • unihan_all.txt:上述子字集的集合字集。
📁 查看檔案結構
charsets/
├── jf7000_coverage/
│   ├── [your_target_font]/
│   │   ├── covered.txt
│   │   └── missing.txt
│   └── ... (jigmo)
├── unihan_coverage/
│   ├── [your_target_font]/
│   │   ├── covered.txt
│   │   └── missing.txt
│   └── ... (jigmo)
└── ...
  • jf7000_coverage/:儲存字型對於 jf7000 字集的覆蓋結果。
  • unihan_coverage/:儲存字型對於 Unihan 字集的覆蓋結果。
    • [your_target_font]/:以目標字型命名的子目錄。
      • covered.txt:目標字型覆蓋字集檔案。
      • missing.txt:目標字型缺失字集檔案。

4. 準備字形圖像資料集 🖨️

此步驟將產生目標字型與參考字型的字形圖像,作為後續模型訓練所需的資料集。

  1. 設定參數:
    1. 開啟 scripts/prepare_dataset.sh
    2. 設定 TARGET_FONT_PATH 為你的目標字型路徑 (例如:"fonts/myfont.ttf")。
    3. 調整其他參數(可選)。
📋 查看腳本參數
  • TARGET_FONT_PATH:目標字型檔案路徑(字串)。
  • REFERENCE_FONTS_DIR:參考字型資料夾路徑(字串)。
  • SOURCE_CHARSET_PATH:來源字集檔案路徑(字串)。
  • IMG_WIDTH:字形圖像寬度(整數)。
  • IMG_HEIGHT:字形圖像高度(整數)。
  • SAMPLE_RATIO:抽樣比例(浮點數,範圍 0.0~1.0)。

Caution

  • 首次執行時,data/ 資料夾將自動建立。
  • 重新執行時,請手動清除 data/ 資料夾中的內容。

Warning

  • 請確保 IMG_WIDTHIMG_HEIGHT 參數相同。

Tip

  • 可調整 SAMPLE_RATIO 參數,以實驗不同的字形圖像資料集大小。
  1. 執行腳本:
bash scripts/prepare_dataset.sh
  1. 查看輸出:
  • 檔案輸出:目標字形(target)與參考字形(reference)圖像將儲存在 data/ 資料夾中。
📁 查看檔案結構
data/
├── reference/
│   ├── 04E00.png
│   ├── 04E8C.png
│   ├── 04E09.png
│   └── ...
└── target/
    ├── 04E00.png
    ├── 04E8C.png
    ├── 04E09.png
    └── ...
  • reference/:存放參考字形圖像的資料夾。
    • 04E00.png:參考字形圖像,檔名為 Unicode 編碼。
  • target/:存放目標字形圖像的資料夾。
    • 04E00.png:目標字形圖像,檔名為 Unicode 編碼。

5. 劃分訓練/驗證字集 🎯

此步驟將劃分訓練字集與驗證字集。

  1. 設定參數:
    1. 開啟 scripts/extract_charset.sh
    2. 設定 TARGET_FONT_PATH 為你的目標字型路徑 (例如:"fonts/myfont.ttf")。
    3. 調整其他參數(可選)。
📋 查看腳本參數
  • TARGET_FONT_PATH:目標字型檔案路徑(字串)。
  • TRAIN_SPLIT_RATIO:訓練字集比例(浮點數,範圍 0.0~1.0)。
  • VAL_SPLIT_RATIO:驗證字集比例(浮點數,範圍 0.0~1.0)。
  • RANDOM_SEED:隨機種子(整數)。
  • DEVICE:指定運算設備(字串)。

Warning

  • 請確保 TRAIN_SPLIT_RATIOVAL_SPLIT_RATIO 之和等於 1.0。

Tip

  • 可調整 RANDOM_SEEDTRAIN_SPLIT_RATIOVAL_SPLIT_RATIO 參數,以實驗不同的字集劃分。
  • 可調整 DEVICE 參數,以指定運算設備(例如:"cuda""cuda:0""cuda:1")。
  1. 執行腳本:
bash scripts/extract_charset.sh
  1. 查看輸出:
  • 檔案輸出: 劃分好的訓練字集(train.txt)與驗證字集(val.txt)檔案將儲存在 charsets/ 資料夾中。
📁 查看檔案結構
charsets/
├── splits/
│   ├── [your_target_font]/
│   │   ├── train.txt
│   │   └── val.txt
│   └── ...
└── ...
  • [your_target_font]/:以目標字型命名的子目錄。
    • train.txt:訓練字集檔案。
    • val.txt:驗證字集檔案。

6. 訓練 VQ-VAE 🏋️

此步驟將訓練 VQ-VAE 模型,作為字形圖像的編碼與解碼模組。

  1. 設定參數:
    1. 開啟 scripts/train_vqvae.sh
    2. 設定 TARGET_FONT_PATH 為你的目標字型路徑 (例如:"fonts/myfont.ttf")。
    3. 調整其他參數(可選)。
📋 查看腳本參數
  • TARGET_FONT_PATH:目標字型檔案路徑(字串)。
  • TRAIN_SPLIT_RATIO:訓練字集比例(浮點數,範圍 0.0~1.0)。
  • VAL_SPLIT_RATIO:驗證字集比例(浮點數,範圍 0.0~1.0)。
  • RANDOM_SEED:隨機種子(整數)。
  • BATCH_SIZE:訓練批次大小(整數)。
  • LEARNING_RATE:學習率(浮點數)。
  • NUM_EPOCHS:訓練週期數(整數)。
  • MODEL_SAVE_PATH:模型權重儲存路徑(字串)。
  • DEVICE:指定運算設備(字串)。

Warning

  • 請確保 TRAIN_SPLIT_RATIOVAL_SPLIT_RATIORANDOM_SEED 參數與 5. 一致。

Tip

  • 可調整 BATCH_SIZELEARNING_RATENUM_EPOCHS 參數,以實驗不同的訓練設定。
  • 可調整 DEVICE 參數,以指定運算設備(例如:"cuda""cuda:0""cuda:1")。

Note

  • 如需進一步自訂 VQ-VAE 架構,請參考 configs/vqvae_config.py 中的 VQVAEModelConfig 類別。
  1. 執行腳本:
bash scripts/train_vqvae.sh

Tip

訓練過程中,可透過 tensorboard --logdir=runs/VQVAE 查看訓練狀態。

  1. 查看輸出:
  • 訓練狀態:VQ-VAE 各週期的訓練狀態與損失將顯示於終端機。
  • 訓練記錄:TensorBoard 訓練紀錄將儲存在 runs/ 資料夾中。
  • 模型權重:VQ-VAE 模型權重將儲存在 checkpoints/ 資料夾中。
📈 查看訓練狀態
✅ Best model saved (val loss: 0.002913)
          Epoch Status [20/100]     
┏━━━━━━━━━━━━━━━┳━━━━━━━━━━━━┳━━━━━━━━━━┓
┃ Metric        ┃ Train Loss ┃ Val Loss ┃
┡━━━━━━━━━━━━━━━╇━━━━━━━━━━━━╇━━━━━━━━━━┩
│ Total         │   0.003001 │ 0.002913 │
│ Recon         │   0.001008 │ 0.000985 │
│ Vq            │   0.001993 │ 0.001928 │
│ Learning Rate │   0.000914 │        - │
└───────────────┴────────────┴──────────┘
  • ✅ Best model saved:當驗證集總損失(Val Total Loss)優於歷史最佳時,自動儲存模型權重。
  • Epoch Status:顯示目前訓練進度(當前週期 / 總週期)。
  • Train Loss / Val Loss:訓練集與驗證集的損失值。
  • Total:總損失(Total Loss)。
  • Recon:重建損失(Reconstruction Loss)。
  • Vq:向量量化損失(Vector Quantization Loss)。
  • Learning Rate:當前學習率。
📁 查看檔案結構
runs/
├── VQVAE/
│   ├── [YYYYMMDD_HHMMSS]/
│   │   └── events.out.tfevents.xxxxx
│   └── ...
└── ...
  • VQVAE/:儲存 VQ-VAE 模型訓練過程的 TensorBoard 紀錄。
    • [YYYYMMDD_HHMMSS]/:以訓練啟動的時間戳記命名的資料夾。
      • events.out.tfevents.xxxxx:TensorBoard 訓練紀錄檔案。

checkpoints/
├── vqvae_[your_target_font].pth
└── ...
  • vqvae_[your_target_font].pth:VQ-VAE 模型權重檔案。

7. 訓練 LDM 🏋️

此步驟將訓練 LDM,作為最終的字形生成模型。

  1. 設定參數:
    1. 開啟 scripts/train_ldm.sh
    2. 設定 TARGET_FONT_PATH 為你的目標字型路徑 (例如:"fonts/myfont.ttf")。
    3. 調整其他參數(可選)。
📋 查看腳本參數
  • TARGET_FONT_PATH:目標字型檔案路徑(字串)。
  • TRAIN_SPLIT_RATIO:訓練字集比例(浮點數,範圍 0.0~1.0)。
  • VAL_SPLIT_RATIO:驗證字集比例(浮點數,範圍 0.0~1.0)。
  • RANDOM_SEED:隨機種子(整數)。
  • BATCH_SIZE:訓練批次大小(整數)。
  • LEARNING_RATE:學習率(浮點數)。
  • NUM_EPOCHS:訓練週期數(整數)。
  • PRETRAINED_VQVAE_PATH:預訓練 VQ-VAE 權重路徑(字串)。
  • MODEL_SAVE_PATH:LDM 模型權重儲存路徑(字串)。
  • SAMPLE_ROOT:生成樣本儲存目錄(字串)。
  • SAMPLE_STEPS:生成樣本去噪步驟數(整數)。
  • IMG_SAVE_INTERVAL:生成樣本儲存週期間隔(整數)。
  • LPIPS_EVAL_INTERVAL:LPIPS 評估週期間隔(整數)。
  • EVAL_BATCH_SIZE:評估批次大小(整數)。
  • DEVICE:指定運算設備(字串)。

Warning

  • 請確保 TRAIN_SPLIT_RATIOVAL_SPLIT_RATIORANDOM_SEED 參數與 5. 一致。

Tip

  • 可調整 BATCH_SIZELEARNING_RATENUM_EPOCHS 參數,以實驗不同的訓練設定。
  • 可調整 DEVICE 參數,以指定運算設備(例如:"cuda""cuda:0""cuda:1")。

Note

  • 如需進一步自訂 LDM 架構,請參考 configs/ldm_config.py 中的 LDMModelConfig 類別。
  1. 執行腳本:
bash scripts/train_ldm.sh

Tip

訓練過程中,可透過 tensorboard --logdir=runs/LDM 查看訓練狀態。

  1. 查看輸出:
  • 訓練狀態:LDM 各週期的訓練狀態與損失將顯示於終端機。
  • 訓練記錄:TensorBoard 訓練紀錄將儲存在 runs/ 資料夾中。
  • 模型權重:LDM 模型權重將儲存在 checkpoints/ 資料夾中。
  • 生成樣本:訓練過程中生成的字形樣本圖像將儲存在 samples_[your_target_font]/ 資料夾中。
📈 查看訓練狀態
✅ Best model saved. (LPIPS score: 0.181055)
          Epoch Status [20/250]     
┏━━━━━━━━━━━━━━━┳━━━━━━━━━━━━┳━━━━━━━━━━┓
┃ Metric        ┃ Train Loss ┃ Val Loss ┃
┡━━━━━━━━━━━━━━━╇━━━━━━━━━━━━╇━━━━━━━━━━┩
│ Total         │   0.016379 │ 0.015627 │
│ Learning Rate │   0.000491 │        - │
└───────────────┴────────────┴──────────┘
  • ✅ Best model saved:驗證集 LPIPS 分數(LPIPS Score)優於歷史最佳時,自動儲存模型權重。
  • Epoch Status:顯示目前訓練進度(當前週期 / 總週期)。
  • Train Loss / Val Loss:訓練集與驗證集的損失值。
  • Total:總損失。
  • Learning Rate:當前學習率。
📁 查看檔案結構
runs/
├── LDM/
│   ├── [YYYYMMDD_HHMMSS]/
│   │   └── events.out.tfevents.xxxxx
│   └── ...
└── ...
  • LDM/:儲存 LDM 模型訓練過程的 TensorBoard 紀錄。
    • [YYYYMMDD_HHMMSS]/:以訓練啟動的時間戳記命名的資料夾。
      • events.out.tfevents.xxxxx:TensorBoard 訓練紀錄檔案。

checkpoints/
├── ldm_[your_target_font].pth
└── ...
  • ldm_[your_target_font].pth:LDM 模型權重檔案。

samples_[your_target_font]/
├── train/
│   ├── epoch_0000_04E00.png
│   ├── epoch_0000_04E8C.png
│   ├── epoch_0000_04E09.png
│   └── ...
├── val/
│   ├── epoch_0000_056DB.png
│   ├── epoch_0000_04E94.png
│   ├── epoch_0000_0516D.png
│   └── ...
└── ...
  • train/:訓練樣本圖像資料夾。
    • epoch_0000_04E00.png:以當前週期與 Unicode 編碼命名的字形圖像檔案,圖片分為左中右三個部分,分別為參考字形、目標字形與生成字形。
  • val/:驗證樣本圖像資料夾。
    • epoch_0000_056DB.png:以當前週期與 Unicode 編碼命名的字形圖像檔案,圖片分為左中右三個部分,分別為參考字形、目標字形與生成字形。

8. 計算評估指標 📈

此步驟將計算 PSNR、SSIM、LPIPS 與 FID 等指標,以評估 LDM 生成之驗證集字形圖像的品質。

  1. 設定參數:
    1. 開啟 scripts/compute_metrics.sh
    2. 設定 TARGET_FONT_PATH 為你的目標字型路徑 (例如:"fonts/myfont.ttf")。
    3. 調整其他參數(可選)。
📋 查看腳本參數
  • TARGET_FONT_PATH:目標字型檔案路徑(字串)。
  • GENERATED_IMG_DIR:生成圖像資料夾路徑(字串)。
  • GROUND_TRUTH_IMG_DIR:真實圖像資料夾路徑(字串)。
  • EVAL_BATCH_SIZE:評估批次大小(整數)。
  • DEVICE:指定運算設備。

Tip

  • 可調整 DEVICE 參數,以指定運算設備(例如:"cuda""cuda:0""cuda:1")。
  1. 執行腳本:
bash scripts/compute_metrics.sh
  1. 查看輸出:
  • 評估指標:PSNR、SSIM、LPIPS 與 FID 之計算結果將顯示於終端機。
📈 查看評估指標
  Metrics Results   
┏━━━━━━━━┳━━━━━━━━━┓
┃ Metric ┃  Score  ┃
┡━━━━━━━━╇━━━━━━━━━┩
│ PSNR   │ 14.4034 │
│ SSIM   │  0.8998 │
│ LPIPS  │  0.0741 │
│ FID    │  7.1209 │
└────────┴─────────┘
  • PSNR:峰值信噪比(Peak Signal-to-Noise Ratio),越高越好。
  • SSIM:結構相似度指標(Structural Similarity Index Measure),越高越好。
  • LPIPS:感知相似度(Learned Perceptual Image Patch Similarity),越低越好。
  • FID:Fréchet Inception 距離(Fréchet Inception Distance),越低越好。

9. 生成字形圖像 🖼️

此步驟將利用訓練完成的 LDM 模型生成目標字形圖像。

  1. 設定參數:
    1. 開啟 scripts/inference.sh
    2. 設定 TARGET_FONT_PATH 為你的目標字型路徑 (例如:"fonts/myfont.ttf")。
    3. 調整其他參數(可選)。
📋 查看腳本參數
  • TARGET_FONT_PATH:目標字型檔案路徑(字串)。
  • REFERENCE_FONTS_DIR:參考字型資料夾路徑(字串)。
  • CHARSET_PATH:生成字集檔案路徑(字串)。
  • PRETRAINED_LDM_PATH:預訓練 LDM 權重路徑(字串)。
  • BATCH_SIZE:生成批次大小(整數)。
  • SAMPLE_ROOT:生成樣本儲存目錄(字串)。
  • SAMPLE_STEPS:生成樣本去噪步驟數(整數)。
  • IMG_WIDTH:生成圖像寬度(整數)。
  • IMG_HEIGHT:生成圖像高度(整數)。
  • DEVICE:指定運算設備(字串)。

Warning

  • 請確保 IMG_WIDTHIMG_HEIGHT 參數與 4. 一致。

Tip

  • 可調整 CHARSET_PATH 參數,以指定要生成的字集。預設為目標字型對 jf7000 的缺失字形。
  • 若要生成對 Unihan 的缺失字形,請將 CHARSET_PATH 設為 charsets/unihan_coverage/[your_target_font]/missing.txt
  • 可調整 DEVICE 參數,以指定運算設備(例如:"cuda""cuda:0""cuda:1")。

Note

  • 可使用 charsets/test/ 目錄中的範例字集。
  • 如需自訂字集,請使用每行一個漢字的純文字檔案。
  • 由於生成具有隨機性,建議可重複執行以取得更理想的結果。
📁 查看範例字集
charsets/
├── test/
│   ├── ordinals.txt
│   ├── periodic_table.txt
│   ├── qianziwen.txt
│   └── repeats.txt
└── ...
  • ordinals.txt:序數字集檔案(中文數字、天干地支、十二生肖...)。
  • periodic_table.txt:元素週期表字集檔案(氫、氦、鋰...)。
  • qianziwen.txt:千字文字集檔案(天、地、玄、黃...)。
  • repeats.txt:疊字字集檔案(如:一、二、三、亖...)。
  1. 執行腳本:
bash scripts/inference.sh
  1. 查看輸出:
  • 缺字字形:生成的字形圖像將儲存在 samples_[your_target_font]/inference/gen/ 資料夾中。
📁 查看檔案結構
samples_[your_target_font]/
├── inference/
│   ├── gen/
│   │   ├── 04E00.png
│   │   └── ...
│   ├── gt/
│   │   ├── 04E00.png
│   │   └── ...
│   └── ref/
│       ├── 04E00.png
│       └── ...
└── ...
  • gen/:生成字形圖像資料夾。
    • 04E00.png:生成字形圖像,檔名為 Unicode 編碼。
  • gt/:真實字形圖像資料夾。
    • 04E00.png:真實字形圖像,檔名為 Unicode 編碼,若目標字型無收錄該字形則為空白圖像。
  • ref/:參考字形圖像資料夾。
    • 04E00.png:參考字形圖像,檔名為 Unicode 編碼。

10. 向量化字形圖像 🔄

此步驟會將生成的點陣字形圖像轉換為對應的 SVG 向量圖形。

  1. 設定參數:
    1. 開啟 scripts/convert_to_svg.sh
    2. 設定 TARGET_FONT_PATH 為你的目標字型路徑 (例如:"fonts/myfont.ttf")。
    3. 調整其他參數(可選)。
📋 查看腳本參數
  • TARGET_FONT_PATH:目標字型檔案路徑(字串)。
  • INPUT_DIR:輸入字形圖像資料夾路徑(字串)。
  • OUTPUT_DIR:輸出 SVG 資料夾路徑(字串)。
  • BLACKLEVEL:黑色閾值(浮點數,範圍 0.0~1.0)。
  • TURDSIZE:雜訊大小(整數)。
  • ALPHAMAX:最大 alpha 值(浮點數,範圍 0.0~1.0)。
  • OPTTOLERANCE:優化容差(浮點數,範圍 0.0~1.0)。

Tip

  • 可調整 BLACKLEVELTURDSIZEALPHAMAXOPTTOLERANCE 參數,以實驗不同的向量化效果。
  1. 執行腳本:
bash scripts/convert_to_svg.sh
  1. 查看輸出:
  • 向量字形:向量字形圖像將儲存在 svgs_[your_target_font]/ 資料夾中。
📁 查看檔案結構
svgs_[your_target_font]/
├── 04E00.svg
├── 04E8C.svg
├── 04E09.svg
└── ...
  • 04E00.svg:以 Unicode 編碼命名的向量字形檔案。

Note

至此,您已完成從字型分析、模型訓練、字形生成到向量化的完整流程。產出的向量字形檔案(SVG)可匯入如 FontForge 等字型編輯工具,進行後續的微調與字型封裝作業。


⚠️ 模型限制

在筆畫繁複或結構特殊的漢字上,模型可能產生結構錯誤或筆畫變形的結果。

以下為部分生成失敗的樣本,可作為後續改進的參考:

fail_cases


📚 參考資料

  1. 學術論文
  1. 網路文章
  1. 相關書目
  • 《Typography 字誌 系列》(Issue 01–06),Graphic 社編輯部、卵形|葉忠宜(統籌.設計)著,臉譜出版,2016–2020 年。
  • 《字型散步 Next:從台灣日常出發,無所不在的中文字型學》,柯志杰、蘇煒翔 著,臉譜出版,2019 年。
  1. 資源網站
  • justfont:台灣的字型設計與教育推廣品牌。
  • Google Fonts:Google 提供的免費字型資源庫。
  • BabelMap Online:線上 Unicode 字元編碼查詢工具。

🙏 特別感謝

本專案得以完成,仰賴眾多開源社群與創作者無私貢獻的字型資源與工具,特此致謝:

  1. 使用字型
  1. 字集資源
  1. 開發工具

Note

本專案的程式碼採用 Apache License 2.0 授權條款;但其中所引用的部分資源(如 jf7000 字集)可能受其原始授權條款(如 CC BY-SA 4.0)約束,使用時請遵循其原始規範。


📜 授權條款

本專案採用 Apache License 2.0 授權條款。請參閱 LICENSE 檔案以獲取更多資訊。

About

基于深度学习的汉字字体补全系统(VQ-VAE+扩散模型)

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages

  • Python 94.2%
  • Shell 5.8%