trongvox commited on
Commit
ea1005b
·
verified ·
1 Parent(s): ca553f7

Add new SentenceTransformer model

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,436 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:37424
8
+ - loss:MultipleNegativesRankingLoss
9
+ base_model: vinai/phobert-base
10
+ widget:
11
+ - source_sentence: Banh gai Tu Tru hay banh gai lang Mia la loai banh dac san cua
12
+ lang Mia, xa Tho Dien, huyen Tho Xuan. Nguyen lieu banh gai chia thanh hai phan
13
+ gom vo va nhan. Trong do, vo chi gom gao nep va la gai con phan nhan co mo lon,
14
+ dau xanh, dua va hat sen. Banh gai duoc goi bang la chuoi kho, hap chin trong
15
+ vong 2 gio. Chiec banh gai dat chuan phai min va thom ngon, co vi deo thom cua
16
+ la gai va gao nep. Huong thom cua dau chuoi, vi ngot cua mat mia, mui thom thanh
17
+ diu cua dau, vi beo ngay cua thit luon hap dan nguoi an.Tat ca tao nen nhung chiec
18
+ banh gai thom ngon dam hon xu Thanh.
19
+ sentences:
20
+ - Gà nấu măng chua
21
+ - Trung tâm EZcooking
22
+ - Bánh gai Tứ Trụ.
23
+ - source_sentence: "Ở Hải Phòng, nhắc đến cháo là bạn sẽ được review ngay đến địa\
24
+ \ điểm Cháo cay Trần Bình Trọng - một quán khá nổi và để lại ấn tượng tốt cho\
25
+ \ nhiều người. Nếu bạn là tín đồ mê ăn cay thì đây sẽ là lựa chọn xuất sắc dành\
26
+ \ cho bạn, là món cháo mà không nơi nào có thể có, nếu bạn đam mê cảm giác cay\
27
+ \ tê lưỡi thì bạn không nên bỏ lỡ địa điểm này.\n\nĐúng như tên gọi của món ăn\
28
+ \ là cháo cay, nên điểm đầu tiên đặc biệt của món ăn này chính là vị cay. Cháo\
29
+ \ cay Trần Bình Trọng nổi tiếng vì rất cay. Nếu bạn là người có niềm đam mê với\
30
+ \ đồ cay nóng thì đây chính là một địa chỉ để đời cho bạn. Khác với món cháo thông\
31
+ \ thường, cháo cay là món được nấu từ bột gạo xay nhuyễn. Nước dùng để nấu cháo\
32
+ \ là loại nước xương được hầm kỹ, và được nêm nếm gia vị sao cho vừa ăn.\n\nĐến\
33
+ \ với quán, bạn sẽ có đa dạng lựa chọn từ cháo sườn, cháo trai, cháo lươn,...\
34
+ \ với hương vị độc đáo và thơm ngon. Cháo được nấu sền sệt, không bị loãng quá\
35
+ \ mà cũng không hề đặc, nêm vừa miệng được ăn kèm cùng quẩy giòn giòn.\n\nTHÔNG\
36
+ \ TIN LIÊN HỆ:\nĐịa chỉ: 17 Trần Bình Trọng, Hồng Bàng, Hải Phòng.\nĐiện thoại:\
37
+ \ 0912 319 466\nGiờ mở cửa: 16:00 - 21:00Giá trung bình: 15.000 đồng - 25.000\
38
+ \ đồng\n Chỉ đường Gọi điện Mua ngay"
39
+ sentences:
40
+ - Quán Cháo cay - Trần Bình Trọng
41
+ - Canh bò hầm rau củ
42
+ - Trái cây chua
43
+ - source_sentence: Tamago Onsen là món trứng được nấu bằng cách sử dụng những nguồn
44
+ suối nước nóng tự nhiên ở Nhật Bản (ở Nhật, người ta gọi suối nước nóng là onsen).
45
+ Quá trình chế biến thường diễn ra trong một khoảng thời gian khá dài nên món trứng
46
+ thành phẩm giống như một miếng bánh mềm mịn. Tamago Onsen thường được phục vụ
47
+ với một vài món đồ ăn kèm và nước tương. Thực ra, onsen tamago gần giống như món
48
+ trứng trần ở nhiều nước. Nhưng điều làm thực khách cảm thấy thu hút ở món ăn này
49
+ đó là sự cầu kì của nó, khi người Nhật sử dụng nước từ các con suối nước nóng
50
+ để chế biến món trứng.
51
+ sentences:
52
+ - Dưa cải muối
53
+ - Cách nấu lẩu kim chi cá hồi
54
+ - Quán Dương
55
+ - source_sentence: 'Thuong bi nham lan voi goi cuon, bo bia lai co cach che bien cau
56
+ ky hon doi chut. Von la mon an cua nguoi Hoa, theo nam thang, bo bia Sai Gon dan
57
+ co nhieu bien doi, nhung xoay quanh van la 5 loai nguyen lieu chinh: lap xuong,
58
+ tep kho, trung vit, cu san cat soi, xa lach va duoc cuon ben ngoai bang mot lop
59
+ banh trang mong, cham voi nuoc tuong dac che.Gia tham khao: 5000 dong'
60
+ sentences:
61
+ - Bánh Xèo 46A Đinh Công Tráng
62
+ - Món canh rong biển
63
+ - Vựa Cua Biển Út Kiệt
64
+ - source_sentence: 'Nguyên liệu: Cho 3 người
65
+
66
+ Cá mút đá 1 kg Ớt 1 muỗng canhLá chanh 20 gr Hành tím băm 2 muỗng cà phê Sa tế
67
+ 2 muỗng canhDụng cụ thực hiện: Bếp nướng điện, tô, muỗng, dao,...
68
+
69
+
70
+ Cách làm Cá mút đá nướng sa tế:
71
+
72
+ Sơ chế cá mút đá:
73
+
74
+ Dùng một vật nhọn giữ cố định đầu của cá mút đá, sau đó dùng dao rạch phần bụng
75
+ và loại bỏ hết phần ruột của cá ra.Tiếp theo dùng dao lóc thịt và bỏ phần da nhờn
76
+ của cá đi. Tùy theo món ăn và kích thước cá mà chúng ta sẽ cắt thành những đoạn
77
+ vừa ăn. Bên cạnh đó, bạn có thể mua cá mút đá chế biến sẵn và được giữ đông, chúng
78
+ vẫn giữ được hương vị, độ tươi ngon. Đây là cách dễ dàng nhất bạn không phải tốn
79
+ công chế biến cá mút đá. Mua về chỉ cần cắt nhỏ, ướp gia vị là có thể nấu được
80
+ ngay.
81
+
82
+ Cách sơ chế cá sạch, hết nhớt
83
+
84
+ Cách 1: bạn hãy lấy giấm tưới lên thân cá, chờ trong vài phút để nhớt trên thân
85
+ cá đông lại, lúc này bạn có thể dễ dàng dùng dao cạo hết lớp nhớt đã đông này
86
+ đi đấy.Cách 2: sau khi mua cá về, dùng nước nóng già đổ lên thân cá. Chú ý không
87
+ được để nước sôi vì sẽ làm tróc da và làm chín lớp cá bên ngoài đấy. Sau khi đổ
88
+ đợi lớp nhớt đông lại và dùng dao cạo lớp nhớt đi sau đó rửa sạch. Để đảm bảo
89
+ cá sạch nhớt, sau khi cạo cũng nên rửa lại bằng giấm hay chanh.Chú ý: Để loại
90
+ bỏ nhớt, mùi tanh của cá do tiết thừa còn đọng lại khi bạn làm thịt cá, sau khi
91
+ chế biến thịt thì bạn hãy rửa thật kĩ, đặc biệt là phần bụng và xương sống cá
92
+ để loại bỏ máu đọng lại. Bằng cách như vậy thì cá của bạn sẽ bớt đi mùi tanh rất
93
+ nhiều đấy!
94
+
95
+ Ướp cá:
96
+
97
+ Cho cá vào tô cùng với 1 muỗng canh ớt, 20gr lá chanh, 2 muỗng cà phê hành tím
98
+ băm và 2 muỗng canh sa tế. Dùng tay trộn đều cho cá thấm đều gia vị, sau đó ướp
99
+ trong 15 phút.
100
+
101
+ Nướng cá:
102
+
103
+ Cho cá lên bếp nướng điện hoặc lên dĩa nướng với than, nướng đến khi cá vừa chín
104
+ tới, không nướng quá chín làm cá khô, mất đi độ ngon của món ăn.
105
+
106
+ Thành phẩm: Thịt cá dai dai, gia vị đậm đà, cay cay của sa tế, nhất định sẽ gây
107
+ ấn tượng cho cả gia đình bạn đấy!'
108
+ sentences:
109
+ - Cá mút đá (cá ninja) nướng sa tế
110
+ - Bánh Canh Hải Sản Mụ Nị
111
+ - Miến xào chả cá
112
+ pipeline_tag: sentence-similarity
113
+ library_name: sentence-transformers
114
+ ---
115
+
116
+ # SentenceTransformer based on vinai/phobert-base
117
+
118
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [vinai/phobert-base](https://huggingface.co/vinai/phobert-base). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
119
+
120
+ ## Model Details
121
+
122
+ ### Model Description
123
+ - **Model Type:** Sentence Transformer
124
+ - **Base model:** [vinai/phobert-base](https://huggingface.co/vinai/phobert-base) <!-- at revision c1e37c5c86f918761049cef6fa216b4779d0d01d -->
125
+ - **Maximum Sequence Length:** 128 tokens
126
+ - **Output Dimensionality:** 768 dimensions
127
+ - **Similarity Function:** Cosine Similarity
128
+ <!-- - **Training Dataset:** Unknown -->
129
+ <!-- - **Language:** Unknown -->
130
+ <!-- - **License:** Unknown -->
131
+
132
+ ### Model Sources
133
+
134
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
135
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
136
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
137
+
138
+ ### Full Model Architecture
139
+
140
+ ```
141
+ SentenceTransformer(
142
+ (0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: RobertaModel
143
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
144
+ )
145
+ ```
146
+
147
+ ## Usage
148
+
149
+ ### Direct Usage (Sentence Transformers)
150
+
151
+ First install the Sentence Transformers library:
152
+
153
+ ```bash
154
+ pip install -U sentence-transformers
155
+ ```
156
+
157
+ Then you can load this model and run inference.
158
+ ```python
159
+ from sentence_transformers import SentenceTransformer
160
+
161
+ # Download from the 🤗 Hub
162
+ model = SentenceTransformer("trongvox/phobert-semactic-retrival-food")
163
+ # Run inference
164
+ sentences = [
165
+ 'Nguyên liệu: Cho 3 người\nCá mút đá 1 kg Ớt 1 muỗng canhLá chanh 20 gr Hành tím băm 2 muỗng cà phê Sa tế 2 muỗng canhDụng cụ thực hiện: Bếp nướng điện, tô, muỗng, dao,...\n\nCách làm Cá mút đá nướng sa tế:\nSơ chế cá mút đá:\nDùng một vật nhọn giữ cố định đầu của cá mút đá, sau đó dùng dao rạch phần bụng và loại bỏ hết phần ruột của cá ra.Tiếp theo dùng dao lóc thịt và bỏ phần da nhờn của cá đi. Tùy theo món ăn và kích thước cá mà chúng ta sẽ cắt thành những đoạn vừa ăn. Bên cạnh đó, bạn có thể mua cá mút đá chế biến sẵn và được giữ đông, chúng vẫn giữ được hương vị, độ tươi ngon. Đây là cách dễ dàng nhất bạn không phải tốn công chế biến cá mút đá. Mua về chỉ cần cắt nhỏ, ướp gia vị là có thể nấu được ngay.\nCách sơ chế cá sạch, hết nhớt\nCách 1: bạn hãy lấy giấm tưới lên thân cá, chờ trong vài phút để nhớt trên thân cá đông lại, lúc này bạn có thể dễ dàng dùng dao cạo hết lớp nhớt đã đông này đi đấy.Cách 2: sau khi mua cá về, dùng nước nóng già đổ lên thân cá. Chú ý không được để nước sôi vì sẽ làm tróc da và làm chín lớp cá bên ngoài đấy. Sau khi đổ đợi lớp nhớt đông lại và dùng dao cạo lớp nhớt đi sau đó rửa sạch. Để đảm bảo cá sạch nhớt, sau khi cạo cũng nên rửa lại bằng giấm hay chanh.Chú ý: Để loại bỏ nhớt, mùi tanh của cá do tiết thừa còn đọng lại khi bạn làm thịt cá, sau khi chế biến thịt thì bạn hãy rửa thật kĩ, đặc biệt là phần bụng và xương sống cá để loại bỏ máu đọng lại. Bằng cách như vậy thì cá của bạn sẽ bớt đi mùi tanh rất nhiều đấy!\nƯớp cá:\nCho cá vào tô cùng với 1 muỗng canh ớt, 20gr lá chanh, 2 muỗng cà phê hành tím băm và 2 muỗng canh sa tế. Dùng tay trộn đều cho cá thấm đều gia vị, sau đó ướp trong 15 phút.\nNướng cá:\nCho cá lên bếp nướng điện hoặc lên dĩa nướng với than, nướng đến khi cá vừa chín tới, không nướng quá chín làm cá khô, mất đi độ ngon của món ăn.\nThành phẩm: Thịt cá dai dai, gia vị đậm đà, cay cay của sa tế, nhất định sẽ gây ấn tượng cho cả gia đình bạn đấy!',
166
+ 'Cá mút đá (cá ninja) nướng sa tế',
167
+ 'Miến xào chả cá',
168
+ ]
169
+ embeddings = model.encode(sentences)
170
+ print(embeddings.shape)
171
+ # [3, 768]
172
+
173
+ # Get the similarity scores for the embeddings
174
+ similarities = model.similarity(embeddings, embeddings)
175
+ print(similarities.shape)
176
+ # [3, 3]
177
+ ```
178
+
179
+ <!--
180
+ ### Direct Usage (Transformers)
181
+
182
+ <details><summary>Click to see the direct usage in Transformers</summary>
183
+
184
+ </details>
185
+ -->
186
+
187
+ <!--
188
+ ### Downstream Usage (Sentence Transformers)
189
+
190
+ You can finetune this model on your own dataset.
191
+
192
+ <details><summary>Click to expand</summary>
193
+
194
+ </details>
195
+ -->
196
+
197
+ <!--
198
+ ### Out-of-Scope Use
199
+
200
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
201
+ -->
202
+
203
+ <!--
204
+ ## Bias, Risks and Limitations
205
+
206
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
207
+ -->
208
+
209
+ <!--
210
+ ### Recommendations
211
+
212
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
213
+ -->
214
+
215
+ ## Training Details
216
+
217
+ ### Training Dataset
218
+
219
+ #### Unnamed Dataset
220
+
221
+
222
+ * Size: 37,424 training samples
223
+ * Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
224
+ * Approximate statistics based on the first 1000 samples:
225
+ | | sentence_0 | sentence_1 | label |
226
+ |:--------|:-------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------|:---------------------------------------------------------------|
227
+ | type | string | string | float |
228
+ | details | <ul><li>min: 83 tokens</li><li>mean: 127.37 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>min: 3 tokens</li><li>mean: 7.27 tokens</li><li>max: 21 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.49</li><li>max: 1.0</li></ul> |
229
+ * Samples:
230
+ | sentence_0 | sentence_1 | label |
231
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------|:-----------------|
232
+ | <code>Nguyên liệu:<br>Thịt nai né: 400grHành tây: 1-1.5 củCần tây: 1-2 câyCà chua:1 quảGia vị: Đường, muối, mì chính, nước mắm, dầu ăn, sa tế, ớt (nếu bạn ăn cay), tỏi băm nhỏ, hành tím khô băm nhỏ.<br>Cách chế biến:<br>Sơ chế và ướp thịt<br>Thịt nai khi mua về xát với muối hột rồi rửa lại với nước sạch và để ráo. Sau đó, cắt thịt thành lát mỏng vừa ăn.Ướp thịt nai với 1/2 phần tỏi, ớt băm, 2 muỗng cà phê bột ngọt, 1 muỗng cà phê hạt nêm, 1 muỗng cà phê đường, 1 muỗng canh sa tế, 1 muỗng canh dầu màu điều. Trộn đều cho thấm gia vị và ướp trong khoảng 5 phút.<br>Thực hiện<br>Cho tỏi, hành khô băm nhỏ vào xào qua, cho thêm cà chua, thịt nai đã ướp vào xào tái. Chú ý khi xào nên để lửa lớn để thịt nai không bị bở.Cho hành tây, cần tây vào xào cùng đến khi chín. Nêm lại gia vị cho vừa miệng.Cho món thịt nai xào hành tây ra đĩa, rắc chút tiêu nếu bạn muốn và thưởng thức.</code> | <code>Thịt nai xào hành tây</code> | <code>1.0</code> |
233
+ | <code>Là một trong những tín đồ của ăn vặt tại Di Linh mà bỏ qua Gạch Coffee thì quả là một thiếu sót lớn. Gạch Coffee có không gian nhỏ xinh, thích hợp với các bạn tuổi teen, lại có vị trí đắc địa ngay giữa trung tâm thị trấn Di Linh nên đây là một trong những địa điểm hẹn hò thường xuyên của các nhóm bạn thân trong những ngày rảnh rỗi. <br><br>Tiệm chủ yếu thiên về đồ uống như trà, coffee, trà sữa… Ngoài ra, 1 số món ăn vặt cũng được chuẩn bị và chế biến rất công phu như mẹt đồ rán, chân gà sả ớt... hay đặc biệt là mì cay Hàn Quốc rất được yêu thích. Tất cả đều sử dụng nguyên liệu sạch, có sự chọn lựa kĩ lưỡng. Đây là địa điểm tụ tập quen thuộc của các bạn trẻ trong khu vực không chỉ bởi địa thế thuận lợi, dễ tìm kiếm, chị chủ dễ tính, đồ ăn ngon, mà giá thành còn rất sinh viên. <br><br>Ăn uống no nê mà mỗi người chỉ tốn mấy chục. Vì thế khách đã đông nay lại càng đông hơn. Ngoài ra, Gạch Coffee còn thường xuyên cập nhật những món mới, lạ và ngon để khách hàng có dịp thưởng thức. Gạch Coffee nơi lý tư...</code> | <code>Cháo tôm, rau cải</code> | <code>0.0</code> |
234
+ | <code>Nam o goc duong Phung Hung - Hang Bong, quan Com Tam Quan 1 noi tieng vi vi suon o day uop chuan vi Sai Gon. Khong gian quan rat sach se, co dieu hoa, thich hop de tu hop gia dinh. Do an cua Com tam Quan 1 rat chat luong va dam bao ve sinh. Neu ban chua tim duoc dia chi nhu y thi day la noi hua hen se cho ban nhieu trai nghiem an tuong. Nhan vien kha nhiet tinh va nhanh nhen, than thien va quan rat sach se va ve sinh cung la diem cong cua quan. Dia com trang tri kha don gian nhung chat luong do an cuc cao. Suat dac biet gom co suon, bi, cha, trung, dua chuot, ca rot, cu cai trang,...<br><br>Suon o Com Tam Quan 1 duoc uop dung vi Sai Gon. Thit nuong chay canh, mieng thit ngoai gion trong mem mem. Cha cua quan an rat vua mieng. Canh dau bap va doc mung cua quan ngot va thom, rat chuan vi o Sai Gon. Voi ten tuoi, chat luong thom ngon nhu the, gia ca cua quan cung khong o muc qua binh dan nhung ban co the yen tam vi mot khi lua chon, ban se duoc thuong thuc mot dia com ngon dang tien. Du ban an ...</code> | <code>Cơm Tấm Quận 1</code> | <code>1.0</code> |
235
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
236
+ ```json
237
+ {
238
+ "scale": 20.0,
239
+ "similarity_fct": "cos_sim"
240
+ }
241
+ ```
242
+
243
+ ### Training Hyperparameters
244
+ #### Non-Default Hyperparameters
245
+
246
+ - `per_device_train_batch_size`: 16
247
+ - `per_device_eval_batch_size`: 16
248
+ - `multi_dataset_batch_sampler`: round_robin
249
+
250
+ #### All Hyperparameters
251
+ <details><summary>Click to expand</summary>
252
+
253
+ - `overwrite_output_dir`: False
254
+ - `do_predict`: False
255
+ - `eval_strategy`: no
256
+ - `prediction_loss_only`: True
257
+ - `per_device_train_batch_size`: 16
258
+ - `per_device_eval_batch_size`: 16
259
+ - `per_gpu_train_batch_size`: None
260
+ - `per_gpu_eval_batch_size`: None
261
+ - `gradient_accumulation_steps`: 1
262
+ - `eval_accumulation_steps`: None
263
+ - `torch_empty_cache_steps`: None
264
+ - `learning_rate`: 5e-05
265
+ - `weight_decay`: 0.0
266
+ - `adam_beta1`: 0.9
267
+ - `adam_beta2`: 0.999
268
+ - `adam_epsilon`: 1e-08
269
+ - `max_grad_norm`: 1
270
+ - `num_train_epochs`: 3
271
+ - `max_steps`: -1
272
+ - `lr_scheduler_type`: linear
273
+ - `lr_scheduler_kwargs`: {}
274
+ - `warmup_ratio`: 0.0
275
+ - `warmup_steps`: 0
276
+ - `log_level`: passive
277
+ - `log_level_replica`: warning
278
+ - `log_on_each_node`: True
279
+ - `logging_nan_inf_filter`: True
280
+ - `save_safetensors`: True
281
+ - `save_on_each_node`: False
282
+ - `save_only_model`: False
283
+ - `restore_callback_states_from_checkpoint`: False
284
+ - `no_cuda`: False
285
+ - `use_cpu`: False
286
+ - `use_mps_device`: False
287
+ - `seed`: 42
288
+ - `data_seed`: None
289
+ - `jit_mode_eval`: False
290
+ - `use_ipex`: False
291
+ - `bf16`: False
292
+ - `fp16`: False
293
+ - `fp16_opt_level`: O1
294
+ - `half_precision_backend`: auto
295
+ - `bf16_full_eval`: False
296
+ - `fp16_full_eval`: False
297
+ - `tf32`: None
298
+ - `local_rank`: 0
299
+ - `ddp_backend`: None
300
+ - `tpu_num_cores`: None
301
+ - `tpu_metrics_debug`: False
302
+ - `debug`: []
303
+ - `dataloader_drop_last`: False
304
+ - `dataloader_num_workers`: 0
305
+ - `dataloader_prefetch_factor`: None
306
+ - `past_index`: -1
307
+ - `disable_tqdm`: False
308
+ - `remove_unused_columns`: True
309
+ - `label_names`: None
310
+ - `load_best_model_at_end`: False
311
+ - `ignore_data_skip`: False
312
+ - `fsdp`: []
313
+ - `fsdp_min_num_params`: 0
314
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
315
+ - `fsdp_transformer_layer_cls_to_wrap`: None
316
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
317
+ - `deepspeed`: None
318
+ - `label_smoothing_factor`: 0.0
319
+ - `optim`: adamw_torch
320
+ - `optim_args`: None
321
+ - `adafactor`: False
322
+ - `group_by_length`: False
323
+ - `length_column_name`: length
324
+ - `ddp_find_unused_parameters`: None
325
+ - `ddp_bucket_cap_mb`: None
326
+ - `ddp_broadcast_buffers`: False
327
+ - `dataloader_pin_memory`: True
328
+ - `dataloader_persistent_workers`: False
329
+ - `skip_memory_metrics`: True
330
+ - `use_legacy_prediction_loop`: False
331
+ - `push_to_hub`: False
332
+ - `resume_from_checkpoint`: None
333
+ - `hub_model_id`: None
334
+ - `hub_strategy`: every_save
335
+ - `hub_private_repo`: None
336
+ - `hub_always_push`: False
337
+ - `gradient_checkpointing`: False
338
+ - `gradient_checkpointing_kwargs`: None
339
+ - `include_inputs_for_metrics`: False
340
+ - `include_for_metrics`: []
341
+ - `eval_do_concat_batches`: True
342
+ - `fp16_backend`: auto
343
+ - `push_to_hub_model_id`: None
344
+ - `push_to_hub_organization`: None
345
+ - `mp_parameters`:
346
+ - `auto_find_batch_size`: False
347
+ - `full_determinism`: False
348
+ - `torchdynamo`: None
349
+ - `ray_scope`: last
350
+ - `ddp_timeout`: 1800
351
+ - `torch_compile`: False
352
+ - `torch_compile_backend`: None
353
+ - `torch_compile_mode`: None
354
+ - `dispatch_batches`: None
355
+ - `split_batches`: None
356
+ - `include_tokens_per_second`: False
357
+ - `include_num_input_tokens_seen`: False
358
+ - `neftune_noise_alpha`: None
359
+ - `optim_target_modules`: None
360
+ - `batch_eval_metrics`: False
361
+ - `eval_on_start`: False
362
+ - `use_liger_kernel`: False
363
+ - `eval_use_gather_object`: False
364
+ - `average_tokens_across_devices`: False
365
+ - `prompts`: None
366
+ - `batch_sampler`: batch_sampler
367
+ - `multi_dataset_batch_sampler`: round_robin
368
+
369
+ </details>
370
+
371
+ ### Training Logs
372
+ | Epoch | Step | Training Loss |
373
+ |:------:|:----:|:-------------:|
374
+ | 0.2138 | 500 | 2.3128 |
375
+ | 0.4275 | 1000 | 2.0084 |
376
+ | 0.2138 | 500 | 1.7923 |
377
+ | 0.4275 | 1000 | 1.8473 |
378
+ | 0.6413 | 1500 | 1.8061 |
379
+ | 0.8551 | 2000 | 1.8079 |
380
+
381
+
382
+ ### Framework Versions
383
+ - Python: 3.10.12
384
+ - Sentence Transformers: 3.3.1
385
+ - Transformers: 4.47.1
386
+ - PyTorch: 2.5.1+cu121
387
+ - Accelerate: 1.2.1
388
+ - Datasets: 3.2.0
389
+ - Tokenizers: 0.21.0
390
+
391
+ ## Citation
392
+
393
+ ### BibTeX
394
+
395
+ #### Sentence Transformers
396
+ ```bibtex
397
+ @inproceedings{reimers-2019-sentence-bert,
398
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
399
+ author = "Reimers, Nils and Gurevych, Iryna",
400
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
401
+ month = "11",
402
+ year = "2019",
403
+ publisher = "Association for Computational Linguistics",
404
+ url = "https://arxiv.org/abs/1908.10084",
405
+ }
406
+ ```
407
+
408
+ #### MultipleNegativesRankingLoss
409
+ ```bibtex
410
+ @misc{henderson2017efficient,
411
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
412
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
413
+ year={2017},
414
+ eprint={1705.00652},
415
+ archivePrefix={arXiv},
416
+ primaryClass={cs.CL}
417
+ }
418
+ ```
419
+
420
+ <!--
421
+ ## Glossary
422
+
423
+ *Clearly define terms in order to be accessible across audiences.*
424
+ -->
425
+
426
+ <!--
427
+ ## Model Card Authors
428
+
429
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
430
+ -->
431
+
432
+ <!--
433
+ ## Model Card Contact
434
+
435
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
436
+ -->
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
config.json ADDED
@@ -0,0 +1,29 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "vinai/phobert-base",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "gradient_checkpointing": false,
11
+ "hidden_act": "gelu",
12
+ "hidden_dropout_prob": 0.1,
13
+ "hidden_size": 768,
14
+ "initializer_range": 0.02,
15
+ "intermediate_size": 3072,
16
+ "layer_norm_eps": 1e-05,
17
+ "max_position_embeddings": 258,
18
+ "model_type": "roberta",
19
+ "num_attention_heads": 12,
20
+ "num_hidden_layers": 12,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "tokenizer_class": "PhobertTokenizer",
24
+ "torch_dtype": "float32",
25
+ "transformers_version": "4.47.1",
26
+ "type_vocab_size": 1,
27
+ "use_cache": true,
28
+ "vocab_size": 64001
29
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.3.1",
4
+ "transformers": "4.47.1",
5
+ "pytorch": "2.5.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:909520407b1c2799ab72e3afda1121298219bcaec50523e8c59e1da3e033d0ef
3
+ size 540015464
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 128,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<s>",
3
+ "cls_token": "<s>",
4
+ "eos_token": "</s>",
5
+ "mask_token": "<mask>",
6
+ "pad_token": "<pad>",
7
+ "sep_token": "</s>",
8
+ "unk_token": "<unk>"
9
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": false,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "model_max_length": 128,
51
+ "pad_token": "<pad>",
52
+ "sep_token": "</s>",
53
+ "tokenizer_class": "PhobertTokenizer",
54
+ "unk_token": "<unk>"
55
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff