--- license: apache-2.0 language: - en pipeline_tag: fill-mask tags: - code --- # Shuu12121/CodeDiff-Owl-ModernBERT-base ## モデル概要 **CodeDiff-Owl-ModernBERT-base** は、GitHub の **コード差分(diff)とコミットメッセージ** を対象にマスク化言語モデル (MLM) で学習した、**diff・コミット履歴特化の ModernBERT 系モデル** です。 * ベースモデル: `ModernBERT` * 事前学習タスク: マスク化言語モデル (Masked Language Modeling; MLM) * 入力フォーマット: `"[CLS]" + commit_message + "[SEP]" + diff` * 対象言語: diff 内のコードとして **Python / Java / JavaScript / Rust** を含むリポジトリ コミットメッセージと diff を同時にエンコードすることで、**「どのような変更(diff)に対して、どのような説明(コミットメッセージ)が付くか」** という対応関係を捉えることを目的としています。 今後、学習を継続した「完全版」を公開予定です(本モデルは 1.8 epoch 時点の途中版です)。 --- ## 想定される用途 ### 主なユースケース * コード変更差分に対する意味的検索 * 例: 「バグ修正」「ログ出力の追加」などの自然言語・疑似クエリと diff の類似度計算 * コミットメッセージと diff の表現獲得 * 例: コミットメッセージ・diff の埋め込みベクトルを用いたクラスタリングや可視化 * diff+コミットメッセージを入力とする下流タスクの初期化 * コミットメッセージ生成・補完 * コードレビューメモの生成 など ### 非推奨 / 注意が必要な用途 * 汎用自然言語モデルとしての利用(一般文書に対する性能は未検証) * セキュリティやライセンス上の判断の自動化(著作権・ライセンス判定など) * 高リスク領域での自動意思決定(法的判断、安全性が重要な場面など) --- ## 学習データ ### データソース * GitHub 上の公開リポジトリ * GitHub の「言語判定」により **Python / Java / JavaScript / Rust** 含有と判断されたリポジトリを対象 * 各リポジトリから、コミットごとの **diff とコミットメッセージ** を収集 * 各リポジトリあたり最大 **1万件** のコミットを上限としてサンプリング * 収集した diff 全体で、おおよそ **70〜100GB 程度**(テキストベース)の規模 ### 前処理・フィルタリング * diff が **32KB を超える場合は途中で打ち切り** * テキストとして読み取り可能な diff のみを利用 --- ## 学習設定 * 初期化: ModernBERTアーキテクチャをもとにランダムな初期値から学習 * タスク: マスク化言語モデル (MLM) * 入力フォーマット: `"[CLS]" + commit_message + "[SEP]" + diff` ※実装で特別な変更は加えていません * バッチサイズ: **64** * 学習率 (learning rate): **1e-6** * エポック数: **1.8 epoch**(時間制約により途中で打ち切り) * 学習時間: 約 **4日間** * その他: * モデル構造自体には特別な改変なし * 純粋に MLM のみで学習(コントラスト学習などは未実施) 今後、同様の設定でもう少し長く学習した「完全版」を公開予定です。 --- ## 入力形式と使い方 ### 入力形式 * **Segment A (sentence A)**: コミットメッセージ(自然言語) * **Segment B (sentence B)**: 対応する diff テキスト トークナイザには、以下のように「2つの入力」として与えてください。 ```python from transformers import AutoTokenizer, AutoModel model_name = "Shuu12121/CodeDiff-Owl-ModernBERT-base" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModel.from_pretrained(model_name) commit_message = "Fix bug in user login flow" diff_text = """ diff --git a/app/auth.py b/app/auth.py index 1234567..89abcde 100644 --- a/app/auth.py +++ b/app/auth.py @@ -10,7 +10,9 @@ def login(user, password): - if user.password == password: - return True - return False + if not user: + return False + return user.check_password(password) """ inputs = tokenizer( commit_message, diff_text, return_tensors="pt", truncation=True, ) outputs = model(**inputs) last_hidden_state = outputs.last_hidden_state # [batch, seq_len, hidden] cls_embedding = last_hidden_state[:, 0] # [CLS] トークンの埋め込み ``` * `cls_embedding` を **コミット+diff の表現ベクトル** として検索・クラスタリング等に利用することを想定しています。 * diff が非常に長い場合はモデル側でトークン長に応じて自動的に切り詰められるため、必要に応じて自前で要約・抽出を行ってください。 --- ## 評価 * 本モデルは現時点では **事前学習段階のスナップショット (1.8 epoch)** です。 * 具体的な使用用途については今後検討予定です。 ---