Shuu12121 commited on
Commit
7b39dc3
·
verified ·
1 Parent(s): e8ee481

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -32,7 +32,7 @@ datasets:
32
  `CodeModernBERT-Owl-2.0-Pre` は、マルチリンガルなコード理解・検索に対応した **CodeModernBERT-Owl** 系列の最新事前学習モデルです。
33
 
34
  本モデルは、**CodeBERT(Feng et al., 2020)で使用されたバイモーダル学習データの約4倍** に相当する、**全て独自収集・構築した高品質なコーパス**のみに基づいて事前学習を行っています。
35
- 前バージョン(`CodeModernBERT-Owl-1.0`)と比較しても、**約2倍のデータ量**で再学習されており、よりリッチな構文・意味情報を学習しています。
36
 
37
  今回新たに、これまで対応していた **7言語(Python, Java, JavaScript, PHP, Ruby, Go, Rust)に加えて、TypeScript** を新たにコーパスに加え、より幅広いコード言語に対応しました。
38
 
@@ -69,7 +69,7 @@ datasets:
69
  `CodeModernBERT-Owl-2.0-Pre` is the latest pretrained model in the **CodeModernBERT-Owl** series for multilingual code understanding and retrieval.
70
 
71
  This model was trained **entirely on a custom-built high-quality corpus**, approximately **4 times larger than the bimodal dataset used in CodeBERT (Feng et al., 2020)**.
72
- Compared to the previous version (`CodeModernBERT-Owl-1.0`), it has been retrained on **twice the amount of data**, capturing more structural and semantic patterns.
73
 
74
  I also newly added **TypeScript** to the previously supported **7 languages** (Python, Java, JavaScript, PHP, Ruby, Go, Rust), further broadening the model’s applicability.
75
 
 
32
  `CodeModernBERT-Owl-2.0-Pre` は、マルチリンガルなコード理解・検索に対応した **CodeModernBERT-Owl** 系列の最新事前学習モデルです。
33
 
34
  本モデルは、**CodeBERT(Feng et al., 2020)で使用されたバイモーダル学習データの約4倍** に相当する、**全て独自収集・構築した高品質なコーパス**のみに基づいて事前学習を行っています。
35
+ 前バージョン(`CodeModernBERT-Owl-1.0`)と比較しても、**約2倍のデータ量**で学習されており、よりリッチな構文・意味情報を学習しています。
36
 
37
  今回新たに、これまで対応していた **7言語(Python, Java, JavaScript, PHP, Ruby, Go, Rust)に加えて、TypeScript** を新たにコーパスに加え、より幅広いコード言語に対応しました。
38
 
 
69
  `CodeModernBERT-Owl-2.0-Pre` is the latest pretrained model in the **CodeModernBERT-Owl** series for multilingual code understanding and retrieval.
70
 
71
  This model was trained **entirely on a custom-built high-quality corpus**, approximately **4 times larger than the bimodal dataset used in CodeBERT (Feng et al., 2020)**.
72
+ Compared to the previous version (`CodeModernBERT-Owl-1.0`), it has been trained on **twice the amount of data**, capturing more structural and semantic patterns.
73
 
74
  I also newly added **TypeScript** to the previously supported **7 languages** (Python, Java, JavaScript, PHP, Ruby, Go, Rust), further broadening the model’s applicability.
75