akhooli commited on
Commit
14f8faa
·
verified ·
1 Parent(s): a99bc7b

akhooli/nli-500k-triplets-MB

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,483 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: akhooli/ModernBERT-ar-base-tiny
3
+ datasets:
4
+ - akhooli/ar_nli_triplets_550
5
+ language:
6
+ - ar
7
+ library_name: sentence-transformers
8
+ license: apache-2.0
9
+ pipeline_tag: sentence-similarity
10
+ tags:
11
+ - sentence-transformers
12
+ - sentence-similarity
13
+ - feature-extraction
14
+ - generated_from_trainer
15
+ - dataset_size:550000
16
+ - loss:MatryoshkaLoss
17
+ - loss:CachedMultipleNegativesRankingLoss
18
+ widget:
19
+ - source_sentence: ماذا يعني اسم كريستين باللغة الإنجليزية
20
+ sentences:
21
+ - 'اسم كريستين هو اسم لاتيني طفل. في اللاتينية ، معنى اسم كريستين هو: أتباع المسيح.
22
+ اسم كريستين هو اسم طفل أمريكي. في أمريكا ، معنى اسم كريستين هو: أتباع المسيح.
23
+ اسم كريستين هو اسم طفل انجليزي. معنى اسم كريستين في اللغة الإنجليزية هو: كريستينا
24
+ وكريستيانا. أتباع المسيح. اسم كريستين هو اسم طفل يوناني. معنى اسم كريستين في اليونانية:
25
+ الممسوح.'
26
+ - '"يشمل الخيار المتخصص أصناف الخيار الموروثة مثل خيار الليمون والخيار ""الأرميني
27
+ الحلو"" ، بالإضافة إلى خيار الدفيئة التي لا تتطلب تلقيحًا لتثبيتها. يتم تربية
28
+ خيار الحاوية من أجل الكروم المدمجة ، وهو أفضل لزراعة السطح وحدائق المساحات الصغيرة.
29
+ الخيار الأرميني الحلو له نكهة خيار خفيفة ، مثل البطيخ بدون الحلاوة. لا يحتاجون
30
+ إلى تقشير ، كما أن شكلهم المضلع يجعل المقاطع العرضية مثيرة للاهتمام عند تقطيعها.
31
+ ""خيار الليمون"" (65 يومًا ، إرث ، تلقيح مفتوح) عبارة عن خيار صغير ، مستدير ،
32
+ أصفر تجده غالبًا في أسواق المزارعين."'
33
+ - 'تزين كريستين ستيوارت غلاف عدد أزياء المرأة الخريفية من مجلة T ، في أكشاك بيع
34
+ الصحف في 21 أغسطس. ها هي الفتاة البالغة من العمر 26 عامًا كان على الممثلة أن تشاركها
35
+ مع ماج: عن علاقتها مع روبرت باتينسون: ࢠ"أراد الناس مني وروب أن نكون معًا بشكل
36
+ سيء لدرجة أن علاقتنا تحولت إلى منتج. لم تعد الحياة الحقيقية.'
37
+ - source_sentence: هل يمكن علاج سرطان العظام
38
+ sentences:
39
+ - علاج سرطان العظام. يعتمد علاج سرطان العظام على نوع سرطان العظام لديك ومدى انتشاره
40
+ وصحتك العامة. العلاجات الرئيسية هي الجراحة والعلاج الكيميائي والعلاج الإشعاعي.
41
+ - اضطراب نخاع العظم هو سبب أقل شيوعًا وأكثر خطورة لارتفاع خلايا الدم البيضاء. اللوكيميا
42
+ هي الجاني الأكثر شيوعًا. مع هذا النوع من السرطان ، ينتج نخاع العظم أعدادًا كبيرة
43
+ من خلايا الدم البيضاء المعيبة ويطلقها في الدم. يمكن أن تؤدي اضطرابات نخاع العظام
44
+ الأخرى ، مثل كثرة الحمر الحقيقية ، إلى زيادة عدد كرات الدم البيضاء.
45
+ - (الولايات المتحدة الأمريكية). متوسط ​​الراتب لمصمم الويب في نيويورك ، نيويورك
46
+ هو 53329 دولارًا في السنة. لا يتمتع الأشخاص في هذه الوظيفة عمومًا بأكثر من 10
47
+ سنوات من الخبرة. المهارات التي تزيد من رواتب هذه الوظيفة هي التجارة الإلكترونية
48
+ و Adobe InDesign و Dreamweaver. الخبرة لها تأثير معتدل على الدخل لهذه الوظيفة.
49
+ - source_sentence: تعريف واجهة scsi
50
+ sentences:
51
+ - يوفر Windows Installer واجهة مستخدم كاملة (UI) لتثبيت تطبيق أو منتج. تقدم واجهة
52
+ المستخدم للمستخدم الخيارات المتاحة لتكوين التثبيت والحصول على معلومات من المستخدم
53
+ حول عملية التثبيت المعلقة. حول واجهة المستخدم يصف وظيفة واجهة مستخدم المثبت. يصف
54
+ استخدام واجهة المستخدم استخدام واجهة المستخدم الداخلية للمثبت. يتم عرض المعلومات
55
+ المرجعية في مربع الحوار الداخلي المثبت وأنماط وخيارات التحكم في مرجع واجهة المستخدم.
56
+ - 'تعريف florid: تعريف florid هو شخص ذو بشرة متوهجة ، أو شيء معقد للغاية. (صفة)
57
+ مثال على شخص يمكن وصفه بأنه مزهر هو عداء ذو ​​وجه أحمر ، متورد الوجه تحول وجهه
58
+ إلى اللون الأحمر بمجهود ...'
59
+ - (واجهة نظام الكمبيوتر الصغيرة) يُعد SCSI عبارة عن واجهة أجهزة لما يصل إلى 15 جهازًا
60
+ طرفيًا متصلًا ببطاقة PCI أو PCI Express (محول مضيف SCSI) على اللوحة الأم. قدم
61
+ في عام 1986 من قبل Shugart Associates (انظر SASI) ، تم استبدال هذه العمارة المتوازية
62
+ الأصلية إلى حد كبير بإصدار تسلسلي (انظر SCSI المرفق التسلسلي).
63
+ - source_sentence: كم رسوم التأخير
64
+ sentences:
65
+ - رسم تأخر دفعة. يتم فرض رسوم السداد المتأخر (رسوم التأخير) على المقترض الذي يتخلف
66
+ عن دفع الحد الأدنى من السداد على الأقل بحلول الموعد النهائي للدفع. لتجنب الرسوم
67
+ المتأخرة ، تأكد من دفع الحد الأدنى للمبلغ على الأقل بحلول تاريخ الاستحقاق. قد
68
+ تؤثر الدفعات المتأخرة على سجلك الائتماني سلبًا ، حتى إذا تم سداد رصيدك المستحق
69
+ بالكامل لاحقًا. يتم تحديد الرسوم المتأخرة العرضية بمبلغ 25 دولارًا بموجب اللوائح
70
+ الفيدرالية.
71
+ - 'ينص قانون ملكية تكساس ، القسم 92.019 ، على أنه لا يجوز للمالك فرض رسوم تأخير
72
+ على المستأجر لعدم دفع الإيجار إلا إذا: 1 تم تضمين إشعار بالرسوم في عقد إيجار مكتوب
73
+ ؛ 2 الرسم المتأخر هو تقدير معقول للأضرار التي لحقت بالمالك نتيجة التأخر في دفع
74
+ الإيجار ؛ و.'
75
+ - يجب أن يتم الاحتفاظ بالحسابات المصرفية المشتركة بملكية متساوية لتكون مؤمنة من
76
+ قبل مؤسسة التأمين الفيدرالية (FDIC) بحد أقصى 250.000 دولار لكل مودع. على سبيل
77
+ المثال ، يجب أن يتمتع الوالد والطفل في حساب مشترك بنفس القدرة على سحب الأموال
78
+ لزيادة حماية مؤسسة التأمين الفيدرالية (FDIC).
79
+ - source_sentence: ما هي المواد المصنوعة من الدعك
80
+ sentences:
81
+ - معظم مقشراتي مصنوعة من قماش يتكون من 65٪ قطن و 35٪ بوليستر. يبدو أن الكمية الصغيرة
82
+ من البوليستر تمنع سوائل الجسم من التسرب عبر القماش إلى بشرتي الأساسية. بعض أنواع
83
+ الدعك من القطن 100٪. ومع ذلك ، تأكد من استخدام قماش ناعم ومتين إذا كنت تنوي صنع
84
+ الدعك من القطن بنسبة 100٪. lvmama يحب هذا.
85
+ - بلدة وندسور ، مقاطعة أشاتبولا ، أوهايو. مرحبًا بكم في وندسور تاونشيب ، مقاطعة
86
+ أشتابولا - أوهايو. مرحبًا بكم في وندسور بولاية أوهايو ، وهي بلدة تقع في الركن
87
+ الجنوبي الغربي من مقاطعة أشتابولا.
88
+ - Scrubs (مسلسل تلفزيوني) (تمت إعادة توجيهه من مستشفى القلب المقدس (Scrubs)) Scrubs
89
+ (منمق كـ [الدعك]) هو مسلسل تلفزيوني كوميدي طبي أمريكي تم إنشاؤه بواسطة Bill Lawrence
90
+ والذي تم بثه من 2 أكتوبر 2001 إلى 17 مارس 2010 ، على NBC ولاحقًا ABC. يتتبع المسلسل
91
+ حياة الموظفين في مستشفى القلب المقدس التعليمي الخيالي.
92
+ ---
93
+
94
+ # Ar ModernBERT base tiny trained on 500k Arabic NLI triplets
95
+
96
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [akhooli/ModernBERT-ar-base-tiny](https://huggingface.co/akhooli/ModernBERT-ar-base-tiny) on the [ar_nli_triplets_550](https://huggingface.co/datasets/akhooli/ar_nli_triplets_550) dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
97
+
98
+ ## Model Details
99
+
100
+ ### Model Description
101
+ - **Model Type:** Sentence Transformer
102
+ - **Base model:** [akhooli/ModernBERT-ar-base-tiny](https://huggingface.co/akhooli/ModernBERT-ar-base-tiny) <!-- at revision 0cdca0e6ca4340705b5ccde7d74b1ec5adc2f94d -->
103
+ - **Maximum Sequence Length:** 8192 tokens
104
+ - **Output Dimensionality:** 768 dimensions
105
+ - **Similarity Function:** Cosine Similarity
106
+ - **Training Dataset:**
107
+ - [ar_nli_triplets_550](https://huggingface.co/datasets/akhooli/ar_nli_triplets_550)
108
+ - **Language:** ar
109
+ - **License:** apache-2.0
110
+
111
+ ### Model Sources
112
+
113
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
114
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
115
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
116
+
117
+ ### Full Model Architecture
118
+
119
+ ```
120
+ SentenceTransformer(
121
+ (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: ModernBertModel
122
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
123
+ )
124
+ ```
125
+
126
+ ## Usage
127
+
128
+ ### Direct Usage (Sentence Transformers)
129
+
130
+ First install the Sentence Transformers library:
131
+
132
+ ```bash
133
+ pip install -U sentence-transformers
134
+ ```
135
+
136
+ Then you can load this model and run inference.
137
+ ```python
138
+ from sentence_transformers import SentenceTransformer
139
+
140
+ # Download from the 🤗 Hub
141
+ model = SentenceTransformer("sbert-nli-500k-triplets-MB")
142
+ # Run inference
143
+ sentences = [
144
+ 'ما هي المواد المصنوعة من الدعك',
145
+ 'معظم مقشراتي مصنوعة من قماش يتكون من 65٪ قطن و 35٪ بوليستر. يبدو أن الكمية الصغيرة من البوليستر تمنع سوائل الجسم من التسرب عبر القماش إلى بشرتي الأساسية. بعض أنواع الدعك من القطن 100٪. ومع ذلك ، تأكد من استخدام قماش ناعم ومتين إذا كنت تنوي صنع الدعك من القطن بنسبة 100٪. lvmama يحب هذا.',
146
+ 'Scrubs (مسلسل تلفزيوني) (تمت إعادة توجيهه من مستشفى القلب المقدس (Scrubs)) Scrubs (منمق كـ [الدعك]) هو مسلسل تلفزيوني كوميدي طبي أمريكي تم إنشاؤه بواسطة Bill Lawrence والذي تم بثه من 2 أكتوبر 2001 إلى 17 مارس 2010 ، على NBC ولاحقًا ABC. يتتبع المسلسل حياة الموظفين في مستشفى القلب المقدس التعليمي الخيالي.',
147
+ ]
148
+ embeddings = model.encode(sentences)
149
+ print(embeddings.shape)
150
+ # [3, 768]
151
+
152
+ # Get the similarity scores for the embeddings
153
+ similarities = model.similarity(embeddings, embeddings)
154
+ print(similarities.shape)
155
+ # [3, 3]
156
+ ```
157
+
158
+ <!--
159
+ ### Direct Usage (Transformers)
160
+
161
+ <details><summary>Click to see the direct usage in Transformers</summary>
162
+
163
+ </details>
164
+ -->
165
+
166
+ <!--
167
+ ### Downstream Usage (Sentence Transformers)
168
+
169
+ You can finetune this model on your own dataset.
170
+
171
+ <details><summary>Click to expand</summary>
172
+
173
+ </details>
174
+ -->
175
+
176
+ <!--
177
+ ### Out-of-Scope Use
178
+
179
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
180
+ -->
181
+
182
+ <!--
183
+ ## Bias, Risks and Limitations
184
+
185
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
186
+ -->
187
+
188
+ <!--
189
+ ### Recommendations
190
+
191
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
192
+ -->
193
+
194
+ ## Training Details
195
+
196
+ ### Training Dataset
197
+
198
+ #### ar_nli_triplets_550
199
+
200
+ * Dataset: [ar_nli_triplets_550](https://huggingface.co/datasets/akhooli/ar_nli_triplets_550) at [7445200](https://huggingface.co/datasets/akhooli/ar_nli_triplets_550/tree/7445200f711a7dc84fc90b643718fba4d842edcb)
201
+ * Size: 550,000 training samples
202
+ * Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
203
+ * Approximate statistics based on the first 1000 samples:
204
+ | | query | positive | negative |
205
+ |:--------|:---------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
206
+ | type | string | string | string |
207
+ | details | <ul><li>min: 4 tokens</li><li>mean: 8.85 tokens</li><li>max: 43 tokens</li></ul> | <ul><li>min: 12 tokens</li><li>mean: 78.73 tokens</li><li>max: 249 tokens</li></ul> | <ul><li>min: 19 tokens</li><li>mean: 75.4 tokens</li><li>max: 266 tokens</li></ul> |
208
+ * Samples:
209
+ | query | positive | negative |
210
+ |:---------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
211
+ | <code>كوينتيليون كم عدد الأصفار</code> | <code>يوجد 6 في مليون 9 في المليار 12 في التريليون وبعد ذلك يكون الكوادريليون ، 15 صفرًا. كوينتيليون لديها 18 ، وسيكستيليون لديها 21.</code> | <code>يتكون رقم الحساب المكون من 10 أرقام من معرف المشاركة والأصفار ورقم حساب العضو الخاص بك. مثال 1: إذا كان رقم حساب العضو الخاص بك يتكون من ستة أرقام (123456) ومعرف المشاركة هو 01 ، فسيكون رقم حسابك المكون من 10 أرقام هو 0100123456.</code> |
212
+ | <code>ما هي كيمياء الكيتونات</code> | <code>في الكيمياء ، الكيتون (الكانون) / - ki - مركب عضوي بهيكل RC (= O) R '، حيث يمكن أن يكون R و R مجموعة متنوعة من البدائل المحتوية على الكربون: الكيتونات والألدهيدات عبارة عن مركبات بسيطة تحتوي على مجموعة كربونيل (رابطة كربون-أكسجين مزدوجة) ، ومع ذلك ، تُستخدم أيضًا بادئات أخرى. بالنسبة لبعض المواد الكيميائية الشائعة (خاصة في الكيمياء الحيوية) ، تشير keto أو oxo إلى مجموعة الكيتون الوظيفية. يستخدم مصطلح oxo على نطاق واسع من خلال الكيمياء. على سبيل المثال ، يشير أيضًا إلى ذرة أكسجين مرتبطة بمعدن انتقالي (أكسيد معدني).</code> | <code>علم المحيطات الكيميائي وكيمياء المحيطات ، هما دراسة كيمياء المحيط. في حين أن علم المحيطات الكيميائي منشغل في المقام الأول بدراسة وفهم خصائص مياه البحر وتغيراتها ، فإنه يركز كيمياء المحيطات بشكل أساسي على الدورات الجيوكيميائية.</code> |
213
+ | <code>تعريف خدمات العيادات الخارجية في كاليفورنيا</code> | <code>قائمة الخدمات (CMS) الخاصة بتصنيفات الدفع المتنقل لخدمات العيادات الخارجية بالمستشفى. (ج) مركز الجراحة المتنقلة (ASC) يعني أي عيادة جراحية على النحو المحدد في ولاية كاليفورنيا. قسم قانون الصحة والسلامة 1204 ، القسم الفرعي (ب) (1) ، أي مركز جراحي متنقل يعمل به. تمت الموافقة على المشاركة في برنامج Medicare بموجب الباب الثامن عشر (42 U.S.C. SEC. 1395 وما يليها) من.</code> | <code>تعريفات خدمات الصح�� السلوكية للمرضى الداخليين والخارجيين. خدمات المرضى الداخليين. ¢ خدمات على مدار 24 ساعة ، يتم تقديمها في بيئة مستشفى مرخصة ، والتي توفر تدخلاً سريريًا للصحة العقلية أو تشخيص تعاطي المخدرات ، أو كليهما. تعريف الخدمة خدمات الصحة النفسية للمرضى الداخليين.</code> |
214
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
215
+ ```json
216
+ {
217
+ "loss": "CachedMultipleNegativesRankingLoss",
218
+ "matryoshka_dims": [
219
+ 768,
220
+ 512,
221
+ 256,
222
+ 128,
223
+ 64
224
+ ],
225
+ "matryoshka_weights": [
226
+ 1,
227
+ 1,
228
+ 1,
229
+ 1,
230
+ 1
231
+ ],
232
+ "n_dims_per_step": -1
233
+ }
234
+ ```
235
+
236
+ ### Evaluation Dataset
237
+
238
+ #### ar_nli_triplets_550
239
+
240
+ * Dataset: [ar_nli_triplets_550](https://huggingface.co/datasets/akhooli/ar_nli_triplets_550) at [7445200](https://huggingface.co/datasets/akhooli/ar_nli_triplets_550/tree/7445200f711a7dc84fc90b643718fba4d842edcb)
241
+ * Size: 550,000 evaluation samples
242
+ * Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
243
+ * Approximate statistics based on the first 1000 samples:
244
+ | | query | positive | negative |
245
+ |:--------|:--------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
246
+ | type | string | string | string |
247
+ | details | <ul><li>min: 4 tokens</li><li>mean: 8.8 tokens</li><li>max: 23 tokens</li></ul> | <ul><li>min: 13 tokens</li><li>mean: 81.35 tokens</li><li>max: 234 tokens</li></ul> | <ul><li>min: 19 tokens</li><li>mean: 75.38 tokens</li><li>max: 250 tokens</li></ul> |
248
+ * Samples:
249
+ | query | positive | negative |
250
+ |:-------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
251
+ | <code>ما هو متوسط ​​المناخ في أكسفورد ، إنجلترا</code> | <code>أكسفورد: المتوسطات الجوية السنوية. يوليو هو الشهر الأكثر سخونة في أكسفورد بمتوسط ​​درجة حرارة 16 درجة مئوية (61 درجة فهرنهايت) والأبرد هو يناير عند 4 درجة مئوية (39 درجة فهرنهايت) مع أكثر ساعات سطوع الشمس يوميًا في 9 من شهر يونيو ، يكون شهر ديسمبر الأكثر رطوبة بمتوسط ​​64 ملم من الأمطار. xford: متوسطات الطقس السنوية. يوليو هو الشهر الأكثر سخونة في أكسفورد بمتوسط ​​درجة حرارة 16 درجة مئوية (61 درجة فهرنهايت) وال��برد هو يناير عند 4 درجة مئوية (39 درجة فهرنهايت) مع أكثر ساعات سطوع الشمس يوميًا عند 9 في يونيو.</code> | <code>المناخ ، متوسط ​​الطقس في اليابان. 1 من مساحة الأرض ، 57٪ لديها مناخ معتدل / متوسط ​​الحرارة مع هطول كبير للأمطار في جميع الفصول (Cf) ، 43٪ لديها مناخ قاري / حراري دقيق مع هطول كبير للأمطار في جميع الفصول (Df).</code> |
252
+ | <code>يمكن تكسير بروتينات تاو</code> | <code>تاو هو بروتين موجود في الخلايا العصبية ، حيث يعمل على استقرار شكل الخلية ووظائفها. كجزء من الوظيفة الطبيعية ، تنثني البروتينات في الجسم وتتكشف وتعود إلى أشكال مختلفة من أجل أداء وظائف محددة ، وعندما لا تكون هناك حاجة إليها ، يتم تفكيكها وإعادة تدويرها بواسطة الخلية.</code> | <code>أكبر فئة من البروتينات هي بروتينات هيكلية. تعمل أنواع البروتين هذه كمكونات أساسية لبناء جسمك. يعتبر الكيراتين والكولاجين من البروتينات الهيكلية الأكثر شيوعًا. هذه بروتينات ليفية قوية. يشكل الكيراتين بنية بشرتك وأظافرك وشعرك وأسنانك.</code> |
253
+ | <code>ما هو تمدد الأوعية الدموية في الدماغ</code> | <code>تمدد الأوعية الدموية في الدماغ هو انتفاخ غير طبيعي أو انتفاخ في جدار الشريان في الدماغ. يطلق عليهم أحيانًا تمدد الأوعية الدموية في التوت لأنها غالبًا ما تكون بحجم حبة التوت الصغيرة. لا ينتج عن معظم تمدد الأوعية الدموية في الدماغ أي أعراض حتى تصبح كبيرة ، أو تبدأ في تسريب الدم ، أو تنفجر. إذا كان تمدد الأوعية الدموية في الدماغ يضغط على الأعصاب في دماغك ، فقد يتسبب في ظهور علامات وأعراض.</code> | <code>قد تزيد عوامل الخطر التالية من خطر إصابتك بتمدد الأوعية الدموية ، أو إذا كنت تعاني بالفعل من تمدد الأوعية الدموية ، فقد تزيد من خطر تمزقها: 1 تاريخ عائلي. 2 الأشخاص الذين لديهم تاريخ عائلي من تمدد الأوعية الدموية في الدماغ هم أكثر عرضة للإصابة بتمدد الأوعية الدموية من أولئك الذين ليس لديهم.</code> |
254
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
255
+ ```json
256
+ {
257
+ "loss": "CachedMultipleNegativesRankingLoss",
258
+ "matryoshka_dims": [
259
+ 768,
260
+ 512,
261
+ 256,
262
+ 128,
263
+ 64
264
+ ],
265
+ "matryoshka_weights": [
266
+ 1,
267
+ 1,
268
+ 1,
269
+ 1,
270
+ 1
271
+ ],
272
+ "n_dims_per_step": -1
273
+ }
274
+ ```
275
+
276
+ ### Training Hyperparameters
277
+ #### Non-Default Hyperparameters
278
+
279
+ - `eval_strategy`: steps
280
+ - `per_device_train_batch_size`: 12
281
+ - `per_device_eval_batch_size`: 12
282
+ - `learning_rate`: 2e-05
283
+ - `num_train_epochs`: 1
284
+ - `max_steps`: 500
285
+ - `warmup_ratio`: 0.1
286
+ - `fp16`: True
287
+ - `batch_sampler`: no_duplicates
288
+
289
+ #### All Hyperparameters
290
+ <details><summary>Click to expand</summary>
291
+
292
+ - `overwrite_output_dir`: False
293
+ - `do_predict`: False
294
+ - `eval_strategy`: steps
295
+ - `prediction_loss_only`: True
296
+ - `per_device_train_batch_size`: 12
297
+ - `per_device_eval_batch_size`: 12
298
+ - `per_gpu_train_batch_size`: None
299
+ - `per_gpu_eval_batch_size`: None
300
+ - `gradient_accumulation_steps`: 1
301
+ - `eval_accumulation_steps`: None
302
+ - `torch_empty_cache_steps`: None
303
+ - `learning_rate`: 2e-05
304
+ - `weight_decay`: 0.0
305
+ - `adam_beta1`: 0.9
306
+ - `adam_beta2`: 0.999
307
+ - `adam_epsilon`: 1e-08
308
+ - `max_grad_norm`: 1.0
309
+ - `num_train_epochs`: 1
310
+ - `max_steps`: 500
311
+ - `lr_scheduler_type`: linear
312
+ - `lr_scheduler_kwargs`: {}
313
+ - `warmup_ratio`: 0.1
314
+ - `warmup_steps`: 0
315
+ - `log_level`: passive
316
+ - `log_level_replica`: warning
317
+ - `log_on_each_node`: True
318
+ - `logging_nan_inf_filter`: True
319
+ - `save_safetensors`: True
320
+ - `save_on_each_node`: False
321
+ - `save_only_model`: False
322
+ - `restore_callback_states_from_checkpoint`: False
323
+ - `no_cuda`: False
324
+ - `use_cpu`: False
325
+ - `use_mps_device`: False
326
+ - `seed`: 42
327
+ - `data_seed`: None
328
+ - `jit_mode_eval`: False
329
+ - `use_ipex`: False
330
+ - `bf16`: False
331
+ - `fp16`: True
332
+ - `fp16_opt_level`: O1
333
+ - `half_precision_backend`: auto
334
+ - `bf16_full_eval`: False
335
+ - `fp16_full_eval`: False
336
+ - `tf32`: None
337
+ - `local_rank`: 0
338
+ - `ddp_backend`: None
339
+ - `tpu_num_cores`: None
340
+ - `tpu_metrics_debug`: False
341
+ - `debug`: []
342
+ - `dataloader_drop_last`: True
343
+ - `dataloader_num_workers`: 0
344
+ - `dataloader_prefetch_factor`: None
345
+ - `past_index`: -1
346
+ - `disable_tqdm`: False
347
+ - `remove_unused_columns`: True
348
+ - `label_names`: None
349
+ - `load_best_model_at_end`: False
350
+ - `ignore_data_skip`: False
351
+ - `fsdp`: []
352
+ - `fsdp_min_num_params`: 0
353
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
354
+ - `fsdp_transformer_layer_cls_to_wrap`: None
355
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
356
+ - `deepspeed`: None
357
+ - `label_smoothing_factor`: 0.0
358
+ - `optim`: adamw_torch
359
+ - `optim_args`: None
360
+ - `adafactor`: False
361
+ - `group_by_length`: False
362
+ - `length_column_name`: length
363
+ - `ddp_find_unused_parameters`: None
364
+ - `ddp_bucket_cap_mb`: None
365
+ - `ddp_broadcast_buffers`: False
366
+ - `dataloader_pin_memory`: True
367
+ - `dataloader_persistent_workers`: False
368
+ - `skip_memory_metrics`: True
369
+ - `use_legacy_prediction_loop`: False
370
+ - `push_to_hub`: False
371
+ - `resume_from_checkpoint`: None
372
+ - `hub_model_id`: None
373
+ - `hub_strategy`: every_save
374
+ - `hub_private_repo`: None
375
+ - `hub_always_push`: False
376
+ - `gradient_checkpointing`: False
377
+ - `gradient_checkpointing_kwargs`: None
378
+ - `include_inputs_for_metrics`: False
379
+ - `include_for_metrics`: []
380
+ - `eval_do_concat_batches`: True
381
+ - `fp16_backend`: auto
382
+ - `push_to_hub_model_id`: None
383
+ - `push_to_hub_organization`: None
384
+ - `mp_parameters`:
385
+ - `auto_find_batch_size`: False
386
+ - `full_determinism`: False
387
+ - `torchdynamo`: None
388
+ - `ray_scope`: last
389
+ - `ddp_timeout`: 1800
390
+ - `torch_compile`: False
391
+ - `torch_compile_backend`: None
392
+ - `torch_compile_mode`: None
393
+ - `dispatch_batches`: None
394
+ - `split_batches`: None
395
+ - `include_tokens_per_second`: False
396
+ - `include_num_input_tokens_seen`: False
397
+ - `neftune_noise_alpha`: None
398
+ - `optim_target_modules`: None
399
+ - `batch_eval_metrics`: False
400
+ - `eval_on_start`: False
401
+ - `use_liger_kernel`: False
402
+ - `eval_use_gather_object`: False
403
+ - `average_tokens_across_devices`: False
404
+ - `prompts`: None
405
+ - `batch_sampler`: no_duplicates
406
+ - `multi_dataset_batch_sampler`: proportional
407
+
408
+ </details>
409
+
410
+ ### Training Logs
411
+ | Epoch | Step | Training Loss |
412
+ |:------:|:----:|:-------------:|
413
+ | 0.0113 | 250 | 4.6054 |
414
+ | 0.0226 | 500 | 3.3232 |
415
+
416
+
417
+ ### Framework Versions
418
+ - Python: 3.10.14
419
+ - Sentence Transformers: 3.4.0.dev0
420
+ - Transformers: 4.48.0
421
+ - PyTorch: 2.5.1+cu121
422
+ - Accelerate: 0.34.2
423
+ - Datasets: 3.0.1
424
+ - Tokenizers: 0.21.0
425
+
426
+ ## Citation
427
+
428
+ ### BibTeX
429
+
430
+ #### Sentence Transformers
431
+ ```bibtex
432
+ @inproceedings{reimers-2019-sentence-bert,
433
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
434
+ author = "Reimers, Nils and Gurevych, Iryna",
435
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
436
+ month = "11",
437
+ year = "2019",
438
+ publisher = "Association for Computational Linguistics",
439
+ url = "https://arxiv.org/abs/1908.10084",
440
+ }
441
+ ```
442
+
443
+ #### MatryoshkaLoss
444
+ ```bibtex
445
+ @misc{kusupati2024matryoshka,
446
+ title={Matryoshka Representation Learning},
447
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
448
+ year={2024},
449
+ eprint={2205.13147},
450
+ archivePrefix={arXiv},
451
+ primaryClass={cs.LG}
452
+ }
453
+ ```
454
+
455
+ #### CachedMultipleNegativesRankingLoss
456
+ ```bibtex
457
+ @misc{gao2021scaling,
458
+ title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup},
459
+ author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
460
+ year={2021},
461
+ eprint={2101.06983},
462
+ archivePrefix={arXiv},
463
+ primaryClass={cs.LG}
464
+ }
465
+ ```
466
+
467
+ <!--
468
+ ## Glossary
469
+
470
+ *Clearly define terms in order to be accessible across audiences.*
471
+ -->
472
+
473
+ <!--
474
+ ## Model Card Authors
475
+
476
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
477
+ -->
478
+
479
+ <!--
480
+ ## Model Card Contact
481
+
482
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
483
+ -->
config.json ADDED
@@ -0,0 +1,44 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "akhooli/ModernBERT-ar-base-tiny",
3
+ "architectures": [
4
+ "ModernBertModel"
5
+ ],
6
+ "attention_bias": false,
7
+ "attention_dropout": 0.0,
8
+ "bos_token_id": null,
9
+ "classifier_activation": "gelu",
10
+ "classifier_bias": false,
11
+ "classifier_dropout": 0.0,
12
+ "classifier_pooling": "cls",
13
+ "cls_token_id": 3,
14
+ "decoder_bias": true,
15
+ "deterministic_flash_attn": false,
16
+ "embedding_dropout": 0.0,
17
+ "eos_token_id": null,
18
+ "global_attn_every_n_layers": 3,
19
+ "global_rope_theta": 10000,
20
+ "hidden_activation": "gelu",
21
+ "hidden_size": 768,
22
+ "initializer_cutoff_factor": 2.0,
23
+ "initializer_range": 0.02,
24
+ "intermediate_size": 1152,
25
+ "local_attention": 128,
26
+ "local_rope_theta": 10000.0,
27
+ "max_position_embeddings": 8192,
28
+ "mlp_bias": false,
29
+ "mlp_dropout": 0.0,
30
+ "model_type": "modernbert",
31
+ "norm_bias": false,
32
+ "norm_eps": 1e-05,
33
+ "num_attention_heads": 12,
34
+ "num_hidden_layers": 22,
35
+ "pad_token_id": 5,
36
+ "reference_compile": false,
37
+ "repad_logits_with_grad": false,
38
+ "sep_token_id": 4,
39
+ "sparse_pred_ignore_index": -100,
40
+ "sparse_prediction": false,
41
+ "torch_dtype": "float32",
42
+ "transformers_version": "4.48.0",
43
+ "vocab_size": 50368
44
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.4.0.dev0",
4
+ "transformers": "4.48.0",
5
+ "pytorch": "2.5.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:3f025a5718ff97f31a2eaa8bbcd4e4a6d77a613052cf0c733ab7a6926cd92825
3
+ size 596070136
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
runs/Jan15_07-32-04_f7233d78449e/events.out.tfevents.1736926328.f7233d78449e.125.0 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6bc612b4e9bb0410955060d1134ac7deffd423957fc9bf0d2d8f9ef887a940bd
3
+ size 5212
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 8192,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": true,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,73 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<|padding|>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<|endoftext|>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "[UNK]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "[CLS]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "[SEP]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ },
43
+ "5": {
44
+ "content": "[PAD]",
45
+ "lstrip": false,
46
+ "normalized": false,
47
+ "rstrip": false,
48
+ "single_word": false,
49
+ "special": true
50
+ },
51
+ "6": {
52
+ "content": "[MASK]",
53
+ "lstrip": true,
54
+ "normalized": false,
55
+ "rstrip": false,
56
+ "single_word": false,
57
+ "special": true
58
+ }
59
+ },
60
+ "clean_up_tokenization_spaces": true,
61
+ "cls_token": "[CLS]",
62
+ "extra_special_tokens": {},
63
+ "mask_token": "[MASK]",
64
+ "model_input_names": [
65
+ "input_ids",
66
+ "attention_mask"
67
+ ],
68
+ "model_max_length": 1000000000000000019884624838656,
69
+ "pad_token": "[PAD]",
70
+ "sep_token": "[SEP]",
71
+ "tokenizer_class": "PreTrainedTokenizerFast",
72
+ "unk_token": "[UNK]"
73
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:07e831ba26d747fc50789510e8ceb8f1b61ab98384875a1d767c7728786187c9
3
+ size 5688