intfloat-fine-tuned
This is a sentence-transformers model finetuned from intfloat/multilingual-e5-large-instruct on the json dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: intfloat/multilingual-e5-large-instruct
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 1024 tokens
- Similarity Function: Cosine Similarity
- Training Dataset:
- json
- Language: tr
- License: apache-2.0
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("Omerhan/checkpoint-60-ucsahin")
# Run inference
sentences = [
'Tibet mimarisi hangi iki kültürü yansıtır?',
'Tibet mimarisi, Çin ve Hint kültürlerini yansıtmaktadır.',
"Tibet ekonomisi geçim tarım hakimdir, ancak turizm son yıllarda büyüyen bir sanayi haline gelmiştir. Tibet'te baskın din Tibet Budizm'dir; Buna ek olarak Tibet Budizm'e benzer Bön vardır ve Tibet Müslümanları ve Hıristiyan azınlıklar da vardır. Tibet Budizmi, bölgenin sanat, müzik ve festivalleri üzerinde birincil bir etkidir. Tibet mimarisi Çin ve Hint etkilerini yansıtır. Tibet'teki zımba gıdaları kavrulmuş arpa, yak eti ve tereyağı çayıdır.",
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Training Details
Training Dataset
json
- Dataset: json
- Size: 4,997 training samples
- Columns:
anchor
,positive
, andnegative
- Approximate statistics based on the first 1000 samples:
anchor positive negative type string string string details - min: 5 tokens
- mean: 16.36 tokens
- max: 61 tokens
- min: 5 tokens
- mean: 33.39 tokens
- max: 265 tokens
- min: 23 tokens
- mean: 197.11 tokens
- max: 512 tokens
- Samples:
anchor positive negative Şehzade Selim kiminle akrabaydı?
Şehzade Selim, Dulkadir Beyi Alaüddevle Bozkurt Bey ile anne tarafından akrabaydı.
Safevi Şah'ı İsmail 1507 yılında hem İstanbul'un hem de Kahire'nin göstereceği tepkiyi görmek amacıyla Dulkadiroğulları Beyliği'nin üzerine yürüdü. Asıl sebebi bu olmamakla beraber görünüşteki sebep, Dulkadir Beyi Alaüddevle Bozkurt Bey'in Şii olan Şah'a kızını vermek istememesiydi. Şah İsmail Osmanlı topraklarından geçerek Kayseri üzerinden Dulkadir topraklarına girdi.Savaşta yenilen Alaüddevle Bozkurt Bey kaçtı ve Şah İsmail Bey'in bir oğlu ile iki torununu ele geçirerek öldürttü. Bunun üzerine Maraş'a ve Elbistan'a giren Şah İsmail Dulkadir Hanedanı'nın mezarlarını yaktırdı. Sonradan da Osmanlı Devleti'ne bir mektup yazıp topraklarını çiğnediğinden dolayı da özür diledi. Yıllardan beri Dulkadiroğulları Beyliği'nin kendilerine bağlı olduğunu iddia eden Memluklular ve Osmanlılar bu hareketi cevapsız bıraktılar.Bu da Şah İsmail'in Anadolu'daki prestijini artırdı. Memluklular tamamıyla sessiz kalsa da Osmanlıların sessiz kalmaları mümkün değildi.Zira Trabzon sancak beyi Şehzade Selim, anne tarafından Dulkadir Beyi Alaüddevle Bozkurt Bey ile akrabaydı.Şehzade Selim ve Şehzade Korkut Alaüddevle Bozkurt Bey'in kızı olan aynı anneden dünyaya gelmişti. Bir dayısına ve iki dayı oğluna yapılan bu harekete karşı Şehzade Selim Azerbaycan'a kadar Safevi topraklarına girerek Safevi Hanedanı'na mensup bazı kişileri esir alıp Trabzon'a getirerek dayısına yapılanın intikamını aldı. Babası Bayezid bile hiçbir şey yapmamışken Şehzade Selim' in bu hareketi gözlerin ona çevrilmesine neden oldu. Bu arada II.Bayezid Şah İsmail'in herhangi bir seferine karşı Orta Anadolu'ya asker yığdı.Bu nedenle Şah İsmail Anadolu'nun içlerine girmekten çekinmiştir. Sayısı 115 bini bulan bu orduyu gözüne kestiremeyen Şah, II. Bayezid'e Şanlı büyük babam diye hitap ettiği bir mektup yazarak 1508 yıllarının ilk aylarında Diyarbakır'a çekildi.
İngilizler hangi yılda Dervişeleri yendi?
İngilizler, Dervişler'i 1920 yılında yendi.
19. yüzyılın sonlarında, Berlin konferansı sona erdikten sonra Avrupalı imparatorluklar ordularıyla Afrika Boynuzu'na yelken açtılar. Somali üzerinde titreyen imparatorluk bulutları, Afrika Boynuzu'ndan Somali askerlerini bir araya getiren ve şimdiye kadarki en uzun sömürge karşıtı savaşlardan birini başlatan Derviş lideri Muhammed Abdullah Hassan'ı alarma geçirdi. Derviş Devleti İngiliz imparatorluğunu dört kez başarıyla püskürttü ve kıyı bölgesine geri çekilmeye zorladı. Derviş Devleti İngilizlere karşı başarılarının bir sonucu olarak Osmanlı ve Alman imparatorluklarından destek aldı. Türkler Somali ulusundan Hasan Emir'i de seçtiler ve Almanlar Dervişlerin elde edeceği her bölgeyi resmen tanımaya söz verdiler. Çeyrek asırlık İngilizleri körfezde tuttuktan sonra, Dervişler sonunda 1920'de yenildi, İngiltere'nin Afrika'da ilk kez Derviş başkenti Taleex'i bombalamak için uçakları kullandı. Bu bombardıman sonucunda eski Derviş toprakları Britanya'nın himayesine dönüştü. İtalya benzer şekilde Somali Sultanları ve ordulardan aynı muhalefetle karşı karşıya kaldı ve 1927'nin sonlarında Faşist döneme kadar modern Somali'nin parçalarının tam kontrolünü elde edemedi. Bu işgal 1941 yılına kadar sürdü ve yerini İngiliz askeri idaresi aldı.
“post-punk” terimini ilk kullanan kimdi?
Metinde belirtilen bilgilere göre, "post-punk" terimini ilk kullananların gazeteciler olduğu belirtilmiştir. Ancak metinde terimin ilk kullanımını yapan gazetecinin kim olduğu belirtilmemiştir.
“post-punk” terimi ilk olarak 1970'lerin sonlarında gazeteciler tarafından punk'ın sonik şablonunun ötesine geçen grupları farklı bölgelere tanımlamak için kullanıldı. Başlangıçta punk'ın DIY etiği ve enerjisinden esinlenen bu sanatçıların çoğu, sonuçta stil ve hareketle hayal kırıklığına uğradı ve ticari formüle, rock kongresi ve öz parodisine düştüğünü hissetti. Popülist iddialarını erişilebilirlik ve ham basitliğe karşı reddettiler, bunun yerine müzikal geleneği kırma, sıradan yerleri alt etme ve izleyicilere meydan okuma fırsatı gördüler. Sanatçılar büyük ölçüde beyaz kaygıları üzerinde punk odak ötesine taşındı, erkek, işçi sınıfı nüfus ve kurulan rock and roll tropes onun sürekli güven terk, Böyle üç akor ilerlemeler ve Chuck Berry tabanlı gitar riffs gibi. Bu sanatçılar bunun yerine “radikal içeriğin radikal bir form gerektirdiğine” inanarak punk'ı “sürekli değişimin bir zorunluluğu” olarak tanımladılar.
- Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
gradient_accumulation_steps
: 8learning_rate
: 1e-06num_train_epochs
: 1lr_scheduler_type
: cosinewarmup_ratio
: 0.01tf32
: Trueoptim
: adamw_torch_fusedbatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: noprediction_loss_only
: Trueper_device_train_batch_size
: 8per_device_eval_batch_size
: 8per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 8eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 1e-06weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 1max_steps
: -1lr_scheduler_type
: cosinelr_scheduler_kwargs
: {}warmup_ratio
: 0.01warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Truelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torch_fusedoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falsebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Framework Versions
- Python: 3.11.11
- Sentence Transformers: 3.1.1
- Transformers: 4.45.2
- PyTorch: 2.5.1+cu124
- Accelerate: 1.2.1
- Datasets: 3.2.0
- Tokenizers: 0.20.3
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 6
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
Model tree for Omerhan/checkpoint-60-ucsahin
Base model
intfloat/multilingual-e5-large-instruct