---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- dense
- generated_from_trainer
- dataset_size:25436
- loss:MultipleNegativesRankingLoss
base_model: intfloat/multilingual-e5-base
widget:
- source_sentence: >-
query: ނަމަވެސް ފާޑުކިޔުންތެރިން ބުނަމުން ދިޔައީ ޕާޝިންގ އަށް ކޮމާންޑް
ކުރަނީ ސަފުތަކުގެ މާ ފަހަތުގައި ކަމަށާއި ފާޑުކިޔާފައިވަނީ އަމިއްލައަށް
ސިފައިން ހަނގުރާމައަށް ގެންދިޔަ ކޮމާންޑަރުންނަށް ކަމަށެވެ .
sentences:
- >-
query: ފުރަތަމަ ރެކޯޑް ކުރީ ލޮރެއިން ކޯޕްލެންޑް 1954 ވަނަ އަހަރު އޭގެ ފަހުން
އޭ ކުޝްކޭ އާއި ޖޭ އެވެ .
- >-
query: ނަމަވެސް ފާޑުކިޔުންތެރިން ބުނަމުން ދިޔައީ ޕާޝިންގް ލީޑް ކުރަމުން
ދިޔައީ ލައިންތަކުގެ ވަރަށް ފަހަތުން ކަމަށާއި ހަނގުރާމައިގެ ތެރެއަށް ސިފައިން
އަމިއްލައަށް ކޮމާންޑް ކުރާ ކޮމާންޑަރުންނަށް ފާޑުކިޔާ ކަމަށެވެ .
- >-
query: ގްރާޒް އިން ފަލްސަފާ ކިޔަވައި ވިއެނާ އާއި ޕަޑޫއާ އިން މެޑިސިން
ކިޔަވައި ވިދާޅުވި އެވެ .
- source_sentence: >-
query: ރަންޖިތު ސިންގް ( ރޯހްތާސް ) އަށް ހިނގާފައި ގޮސް އެތަނުން (
ރަވަލްޕިންޑީ ) އަށް ގޮސް ( ސަރައި ކަލާ ) މެދުވެރިކޮށް ސިރިކޯޓަށް އާދެވުނެވެ
.
sentences:
- >-
query: ރަންޖިތު ސިންގް ހިނގައިގަތީ ( ރޯހްތާސް ) އަށް , އެތަނުން ރަވަލްޕިންޑީ
އަށް އަދި ( ސަރައި ކަލާ ) މެދުވެރިކޮށް ސިރިކޯޓަށް .
- >-
query: ޖުއާން ކޮލޮމަރ އޭނާގެ މަސައްކަތްތައް ޝާއިޢުކުރައްވަނީ ސްވިޒަލޭންޑްގެ
އެޑިޝަންސް ބިމް އާއި އެޑިޓޯރިއަލް ޕައިލްސް އާއި ޓްރިޓޯ އަދި ސްޕެއިންގެ
ރިވެރާ އެޑިޓަރުންނާ އެކުގައެވެ .
- >-
query: އޭނާ އުފަންވެވަޑައިގަތީ އޮކްޓޯބަރ 23 , 1806 ގައި ނިއުޔޯކުގެ އީސްޓް
ބްރޯޑްވޭ އަށެވެ .
- source_sentence: >-
query: އައިޑީޖީސީ ހޯލްޑިންގގެ މައިގަނޑު އިންވެސްޓްމަންޓް ޕްރޮގްރާމްގެ ދަށުން
2011 ވަނަ އަހަރަށް ކޮންސޮލިޑޭޓް ކުރެވިފައިވާ މަޝްރޫޢުތަކަކީ ތިރީގައި މިވާ
މަޝްރޫޢުތަކެވެ.
sentences:
- >-
query: އައިޑީޖީސީ ހޯލްޑިންގެ މައިގަނޑު އިންވެސްޓްމަންޓް ޕްރޮގްރާމްގެ ދަށުން
2011 ވަނަ އަހަރަށް ކޮންސޮލިޑޭޓް ކުރެވިފައިވާ މަޝްރޫއުތަކަކީ ތިރީގައި މިވާ
މަޝްރޫއުތަކެވެ.
- >-
query: އެ ޓީމުން ވަނީ 2011 ވަނަ އަހަރުގެ ފަހު އަހަރުތަކުގައި ހަވާއީ ,
ރަޓްޖާސް , އަޔަވާ , މިސިސިޕީ ސްޓޭޓް , ނެބްރަސްކާ , ކޮނެކްޓިކަޓް ,
ސައިރަކިއުސް އަދި ޕިޓްސްބާގް ފަދަ ޓީމުތަކާ ކުޅެފަ އެވެ .
- >-
query: ހަނގުރާމައިގެ އެންމެ ފަހު ދުވަސްތަކާ ހަމައަށް އާޖެންޓީނާ ސަރުކާރުން
ނިއުޓްރަލް ނަމަވެސް 1945 ވަނަ އަހަރު ވިޗީ އާއި ފްރާންސް އާއި ބެލްޖިއަމް އަދި
ޖަރުމަނުން ފިލައިގެން ދިޔަ ނާޒީ ލީޑަރުން ވަދެވަޑައިގަތުމަށް މަޑުމަޑުން
ތަޙައްމަލު ކުރިއެވެ .
- source_sentence: 'query: ނަމަވެސް މައިލްޑް ވާޝަން ދޫކޮށްލީ އަސްލު އެޑިޝަންގެ ފަރާތުންނެވެ .'
sentences:
- >-
query: ރޮނީ ފީލްޑްސް އެންބީއޭގައި ވެސް އަދި އެންސީއޭއޭގައި ވެސް އެންމެ
މެޗެއް ނުކުޅެ އެވެ .
- 'query: ނަމަވެސް އޭގެ މަޑު ވަރޝަން ދޫކޮށްލީ އަސްލު އެޑިޝަންގެ ފަރާތުންނެވެ .'
- >-
query: 2007 ވަނަ އަހަރު މަތީ ފިޝަރ އެއް އަހަރު ދުވަހު އުޅުމަށްފަހު މި ބޭންޑާ
ގުޅުނުއިރު، ޖެންސް ރަމޮން ވަކިވިއެވެ .
- source_sentence: >-
query: މި މާނަ ތިރީގައިވާ ގޮތަށް އެއްވެސް ( ސްޓޭންޑަރޑް ނުވަތަ ނޮން
ސްޓޭންޑަރޑް ) ނުކުތާއަކަށް ފުޅާކުރެވިދާނެއެވެ :
sentences:
- >-
query: ޑޮންގް ޒާއޯ އަކީ `` ޝިއޯލިއަން '' އެއް ކަމަށާއި އޭނާގެ ފުރަތަމަ
އަހަރުތަކުގައި ހަނގުރާމަވެރިޔާ ޔުއާން ޝާއޯގެ ދަށުން ޑިސްޓްރިކްޓް އޮފިޝަލްގެ
މަގާމު އަދާކުރެއްވުމުގެ ކުރިން އޭނާ ވަނީ އަސްކަރީ ލަފާދޭ މީހަކަށް
ޕްރޮމޯޓްވެފަ އެވެ .
- >-
query: ނަރެޓިވްގައި ދެން އަންނަ ސީޒަނާއި މިހާރުގެ ސީޒަނާ ދެމެދު
އަޅުގަނޑުމެންނަށް އެނގުނީ ގުއިޑޯ މަރުވެފައިވަނީ ކާރު އެކްސިޑެންޓެއްގެ
ސަބަބުން ކަމަށެވެ .
- >-
query: އެ މާނަ އަމިއްލައަށް ފުޅާކުރެވޭ ( ސްޓޭންޑަރޑް ނުވަތަ ނޮން ސްޓޭންޑަރޑް
) ޕޮއިންޓްތަކަށް ތިރީގައިވާ ގޮތަށް ފުޅާކުރެވިދާނެއެވެ :
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- pearson_cosine
- spearman_cosine
model-index:
- name: SentenceTransformer based on intfloat/multilingual-e5-base
results:
- task:
type: semantic-similarity
name: Semantic Similarity
dataset:
name: dhivehi paws
type: dhivehi-paws
metrics:
- type: pearson_cosine
value: 0.2502280526743205
name: Pearson Cosine
- type: spearman_cosine
value: 0.2829576921861
name: Spearman Cosine
license: mit
datasets:
- alakxender/dhivehi-paws-labeled
language:
- dv
- en
---
# SentenceTransformer based on intfloat/multilingual-e5-base
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-base](https://huggingface.co/intfloat/multilingual-e5-base). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [intfloat/multilingual-e5-base](https://huggingface.co/intfloat/multilingual-e5-base)
- **Maximum Sequence Length:** 256 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
### Fine-tuned Models
This model is part of a progressive series of sentence embedding models based on [`intfloat/multilingual-e5-base`](https://huggingface.co/intfloat/multilingual-e5-base), fine-tuned specifically for Dhivehi language understanding.
Each stage leverages a targeted dataset to specialize the model for semantic similarity, question answering, and summarization tasks — improving performance for real-world Dhivehi NLP applications.
| Stage | Task | Model | Dataset | Objective |
|-------|------|-------|---------|-----------|
| 0 | Base | Multilingual Base | [`intfloat/multilingual-e5-base`](https://huggingface.co/intfloat/multilingual-e5-base) | — | Init |
| 1 | Paraphrase Identification (MNR) | [`alakxender/e5-dhivehi-paws-mnr`](https://huggingface.co/alakxender/e5-dhivehi-paws-mnr) | [`alakxender/dhivehi-paws-labeled`](https://huggingface.co/datasets/alakxender/dhivehi-paws-labeled) > **label=1 Only** | MultipleNegativesRankingLoss |
| 2 | Paraphrase Identification (Cosine) | [`alakxender/e5-dhivehi-paws-cos`](https://huggingface.co/alakxender/e5-dhivehi-paws-cos) | [`alakxender/dhivehi-paws-labeled`](https://huggingface.co/datasets/alakxender/dhivehi-paws-labeled) | CosineSimilarityLoss |
| 3 | Question → Passage Matching | [`alakxender/e5-dhivehi-qa-mnr`](https://huggingface.co/alakxender/e5-dhivehi-qa-mnr) | [`alakxender/dhivehi-qa-dataset`](https://huggingface.co/datasets/alakxender/dhivehi-qa-dataset) | MultipleNegativesRankingLoss |
| 4 | News Title → Content | [`alakxender/e5-dhivehi-articles-mnr`](https://huggingface.co/alakxender/e5-dhivehi-articles-mnr) | [`alakxender/dhivehi-news-corpus`](https://huggingface.co/datasets/alakxender/dhivehi-news-corpus) | MultipleNegativesRankingLoss |
| 5 | Summary → Content | [`alakxender/e5-dhivehi-summaries-mnr`](https://huggingface.co/alakxender/e5-dhivehi-summaries-mnr) | [`alakxender/dv-en-parallel-corpus-clean`](https://huggingface.co/datasets/alakxender/dv-en-parallel-corpus-clean), [`alakxender/dv-summary-translation-corpus`](https://huggingface.co/datasets/alakxender/dv-summary-translation-corpus) | MultipleNegativesRankingLoss |
> Each model builds upon the previous checkpoint, incrementally enhancing the semantic capabilities of the model for Dhivehi. The goal is to support high-quality sentence embeddings for a wide range of Dhivehi information retrieval and understanding tasks.
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 256, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("alakxender/e5-dhivehi-paws-mnr")
# Run inference
sentences = [
'query: މި މާނަ ތިރީގައިވާ ގޮތަށް އެއްވެސް ( ސްޓޭންޑަރޑް ނުވަތަ ނޮން ސްޓޭންޑަރޑް ) ނުކުތާއަކަށް ފުޅާކުރެވިދާނެއެވެ :',
'query: އެ މާނަ އަމިއްލައަށް ފުޅާކުރެވޭ ( ސްޓޭންޑަރޑް ނުވަތަ ނޮން ސްޓޭންޑަރޑް ) ޕޮއިންޓްތަކަށް ތިރީގައިވާ ގޮތަށް ފުޅާކުރެވިދާނެއެވެ :',
"query: ޑޮންގް ޒާއޯ އަކީ `` ޝިއޯލިއަން '' އެއް ކަމަށާއި އޭނާގެ ފުރަތަމަ އަހަރުތަކުގައި ހަނގުރާމަވެރިޔާ ޔުއާން ޝާއޯގެ ދަށުން ޑިސްޓްރިކްޓް އޮފިޝަލްގެ މަގާމު އަދާކުރެއްވުމުގެ ކުރިން އޭނާ ވަނީ އަސްކަރީ ލަފާދޭ މީހަކަށް ޕްރޮމޯޓްވެފަ އެވެ .",
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[ 1.0000, 0.9850, -0.0063],
# [ 0.9850, 1.0000, -0.0151],
# [-0.0063, -0.0151, 1.0000]])
```
## Evaluation
### Metrics
#### Semantic Similarity
* Dataset: `dhivehi-paws`
* Evaluated with [EmbeddingSimilarityEvaluator](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
| Metric | Value |
|:--------------------|:----------|
| pearson_cosine | 0.2502 |
| **spearman_cosine** | **0.283** |
## Training Details
### Training Dataset
* Size: 25,436 training samples
* Columns: sentence_0 and sentence_1
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 |
|:--------|:---------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string |
| details |
query: ކެނެޑާގައި އުފައްދާ ހުރިހާ ދުންފަތުގެ %90 ވަރަކަށް މިތަނުގައި އުފައްދައެވެ . | query: ކެނެޑާގައި އުފައްދާ ހުރިހާ ދުންފަތުގެ %90 ވަރަކަށް މިތަނުން އުފައްދައެވެ . |
| query: ޒަމާނީ ހެދުން ބޭނުން ކުރަން ނިންމުމަކީ ހައުސްމަން ކިޔާ ނިންމުމަކީ އޯސަން ޑްރާމާއަކީ ސާފު ޒަމާނީ ޕެރެލަލްސްތަކެއް ހުރި ސިޔާސީ މެލޯޑްރާމާއެއްގެ ގޮތުގައި ތަސައްވަރު ކުރެއްވި މުހިންމު އެއް މާއްދާއެކެވެ . | query: ހައުސްމަން ވިދާޅުވީ ޒަމާނީ ހެދުން ބޭނުން ކުރަން ނިންމުމަކީ `` ސާފު ޒަމާނީ ޕެރެލަލްސްތަކެއް ހުރި ސިޔާސީ މެލޯޑްރާމާއެއްގެ ގޮތުގައި އޮރސަން ޑްރާމާ ތަސައްވުރު ކުރުމުގައި މުހިންމު އެއް މާއްދާއެއް ކަމަށެވެ . '' . |
| query: ލެޓާ އަކީ ނާޒީ ޖަރުމަނުން ލެޓްވިއާ ހިފެހެއްޓި ދުވަސްވަރު ޖަރުމަނުގެ ނޫސް އެޖެންސީ ޑީއެންބީގެ ދަށުގައި އޮތް ތަނެކެވެ . | query: ނާޒީ ޖަރުމަނުން ލެޓްވިއާ ހިފުމުގެ ތެރޭގައި ލެޓާ އޮތީ ޖަރުމަނުގެ ޑީއެންބީ ނިއުސް އެޖެންސީގެ ދަށުގައެވެ . |
* Loss: [MultipleNegativesRankingLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 32
- `multi_dataset_batch_sampler`: round_robin
#### All Hyperparameters