modelId
stringlengths
5
139
author
stringlengths
2
42
last_modified
timestamp[us, tz=UTC]date
2020-02-15 11:33:14
2025-09-13 18:26:42
downloads
int64
0
223M
likes
int64
0
11.7k
library_name
stringclasses
558 values
tags
listlengths
1
4.05k
pipeline_tag
stringclasses
55 values
createdAt
timestamp[us, tz=UTC]date
2022-03-02 23:29:04
2025-09-13 18:25:20
card
stringlengths
11
1.01M
flemmingpetter2/blockassist-bc-hardy_subtle_snake_1755675346
flemmingpetter2
2025-08-20T08:08:25Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "hardy subtle snake", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T08:08:21Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - hardy subtle snake --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
sampingkaca72/blockassist-bc-armored_stealthy_elephant_1755675732
sampingkaca72
2025-08-20T08:07:40Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "armored stealthy elephant", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T08:07:37Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - armored stealthy elephant --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
helmutsukocok/blockassist-bc-loud_scavenging_kangaroo_1755675560
helmutsukocok
2025-08-20T08:07:12Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "loud scavenging kangaroo", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T08:07:09Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - loud scavenging kangaroo --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
dongjuu/qwen3-1.7b-base-MED-Instruct
dongjuu
2025-08-20T08:06:32Z
0
0
transformers
[ "transformers", "safetensors", "qwen3", "text-generation", "trl", "sft", "conversational", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-20T08:05:35Z
--- library_name: transformers tags: - trl - sft --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
Sayemahsjn/blockassist-bc-playful_feline_octopus_1755676017
Sayemahsjn
2025-08-20T08:05:00Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "playful feline octopus", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T08:04:56Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - playful feline octopus --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
ypszn/blockassist-bc-yapping_pawing_worm_1755676956
ypszn
2025-08-20T08:03:28Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "yapping pawing worm", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T08:03:18Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - yapping pawing worm --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
mradermacher/BiggerCoQ-Qwen3-10b-GGUF
mradermacher
2025-08-20T08:00:48Z
0
0
transformers
[ "transformers", "gguf", "mergekit", "merge", "en", "base_model:KaraKaraWitch/BiggerCoQ-Qwen3-10b", "base_model:quantized:KaraKaraWitch/BiggerCoQ-Qwen3-10b", "endpoints_compatible", "region:us", "conversational" ]
null
2025-08-20T06:17:16Z
--- base_model: KaraKaraWitch/BiggerCoQ-Qwen3-10b language: - en library_name: transformers mradermacher: readme_rev: 1 quantized_by: mradermacher tags: - mergekit - merge --- ## About <!-- ### quantize_version: 2 --> <!-- ### output_tensor_quantised: 1 --> <!-- ### convert_type: hf --> <!-- ### vocab_type: --> <!-- ### tags: --> <!-- ### quants: x-f16 Q4_K_S Q2_K Q8_0 Q6_K Q3_K_M Q3_K_S Q3_K_L Q4_K_M Q5_K_S Q5_K_M IQ4_XS --> <!-- ### quants_skip: --> <!-- ### skip_mmproj: --> static quants of https://huggingface.co/KaraKaraWitch/BiggerCoQ-Qwen3-10b <!-- provided-files --> ***For a convenient overview and download list, visit our [model page for this model](https://hf.tst.eu/model#BiggerCoQ-Qwen3-10b-GGUF).*** weighted/imatrix quants are available at https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-i1-GGUF ## Usage If you are unsure how to use GGUF files, refer to one of [TheBloke's READMEs](https://huggingface.co/TheBloke/KafkaLM-70B-German-V0.1-GGUF) for more details, including on how to concatenate multi-part files. ## Provided Quants (sorted by size, not necessarily quality. IQ-quants are often preferable over similar sized non-IQ quants) | Link | Type | Size/GB | Notes | |:-----|:-----|--------:|:------| | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.Q2_K.gguf) | Q2_K | 4.4 | | | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.Q3_K_S.gguf) | Q3_K_S | 5.0 | | | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.Q3_K_M.gguf) | Q3_K_M | 5.5 | lower quality | | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.Q3_K_L.gguf) | Q3_K_L | 5.9 | | | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.IQ4_XS.gguf) | IQ4_XS | 6.2 | | | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.Q4_K_S.gguf) | Q4_K_S | 6.4 | fast, recommended | | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.Q4_K_M.gguf) | Q4_K_M | 6.7 | fast, recommended | | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.Q5_K_S.gguf) | Q5_K_S | 7.7 | | | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.Q5_K_M.gguf) | Q5_K_M | 7.9 | | | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.Q6_K.gguf) | Q6_K | 9.0 | very good quality | | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.Q8_0.gguf) | Q8_0 | 11.7 | fast, best quality | | [GGUF](https://huggingface.co/mradermacher/BiggerCoQ-Qwen3-10b-GGUF/resolve/main/BiggerCoQ-Qwen3-10b.f16.gguf) | f16 | 21.9 | 16 bpw, overkill | Here is a handy graph by ikawrakow comparing some lower-quality quant types (lower is better): ![image.png](https://www.nethype.de/huggingface_embed/quantpplgraph.png) And here are Artefact2's thoughts on the matter: https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9 ## FAQ / Model Request See https://huggingface.co/mradermacher/model_requests for some answers to questions you might have and/or if you want some other model quantized. ## Thanks I thank my company, [nethype GmbH](https://www.nethype.de/), for letting me use its servers and providing upgrades to my workstation to enable this work in my free time. <!-- end -->
Orginal-Uppal-Farm-Girl-Viral-Video-Links/New.full.videos.Uppal.Farm.Girl.Viral.Video.Official.Tutorial
Orginal-Uppal-Farm-Girl-Viral-Video-Links
2025-08-20T07:59:52Z
0
0
null
[ "region:us" ]
null
2025-08-20T07:59:24Z
<animated-image data-catalyst=""><a href="https://tinyurl.com/3ckkv2u7?viral-video" rel="nofollow" data-target="animated-image.originalLink"><img src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" alt="Foo" data-canonical-src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" style="max-width: 100%; display: inline-block;" data-target="animated-image.originalImage"></a>
CoDiEmb/CoDi-MiniCPM_sentence_transformers
CoDiEmb
2025-08-20T07:59:30Z
0
0
sentence-transformers
[ "sentence-transformers", "safetensors", "minicpm", "sentence-similarity", "feature-extraction", "custom_code", "autotrain_compatible", "endpoints_compatible", "region:us" ]
sentence-similarity
2025-08-20T07:48:03Z
--- language: [] tags: - sentence-transformers - sentence-similarity - feature-extraction widget: [] datasets: [] pipeline_tag: sentence-similarity library_name: sentence-transformers --- # SentenceTransformer This is a [sentence-transformers](https://www.SBERT.net) model trained. It maps sentences & paragraphs to a 2304-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. ## Model Details ### Model Description - **Model Type:** Sentence Transformer <!-- - **Base model:** [Unknown](https://huggingface.co/unknown) --> - **Maximum Sequence Length:** 1024 tokens - **Output Dimensionality:** 2304 tokens - **Similarity Function:** Cosine Similarity <!-- - **Training Dataset:** Unknown --> <!-- - **Language:** Unknown --> <!-- - **License:** Unknown --> ### Model Sources - **Documentation:** [Sentence Transformers Documentation](https://sbert.net) - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) ### Full Model Architecture ``` SentenceTransformer( (0): Transformer({'max_seq_length': 1024, 'do_lower_case': False}) with Transformer model: MiniCPMModel (1): Pooling({'word_embedding_dimension': 2304, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': False}) ) ``` ## Usage ### Direct Usage (Sentence Transformers) First install the Sentence Transformers library: ```bash pip install -U sentence-transformers ``` Then you can load this model and run inference. ```python from sentence_transformers import SentenceTransformer # Download from the 🤗 Hub model = SentenceTransformer("sentence_transformers_model_id") # Run inference sentences = [ 'The weather is lovely today.', "It's so sunny outside!", 'He drove to the stadium.', ] embeddings = model.encode(sentences) print(embeddings.shape) # [3, 2304] # Get the similarity scores for the embeddings similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [3, 3] ``` <!-- ### Direct Usage (Transformers) <details><summary>Click to see the direct usage in Transformers</summary> </details> --> <!-- ### Downstream Usage (Sentence Transformers) You can finetune this model on your own dataset. <details><summary>Click to expand</summary> </details> --> <!-- ### Out-of-Scope Use *List how the model may foreseeably be misused and address what users ought not to do with the model.* --> <!-- ## Bias, Risks and Limitations *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* --> <!-- ### Recommendations *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* --> ## Training Details ### Framework Versions - Python: 3.10.10 - Sentence Transformers: 3.0.1 - Transformers: 4.51.3 - PyTorch: 2.2.1+cu118 - Accelerate: - Datasets: 3.4.1 - Tokenizers: 0.21.1 ## Citation ### BibTeX <!-- ## Glossary *Clearly define terms in order to be accessible across audiences.* --> <!-- ## Model Card Authors *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* --> <!-- ## Model Card Contact *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* -->
ypszn/blockassist-bc-yapping_pawing_worm_1755676531
ypszn
2025-08-20T07:57:07Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "yapping pawing worm", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:56:59Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - yapping pawing worm --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
WIHOW3H/my_awesome_video_cls_model
WIHOW3H
2025-08-20T07:56:58Z
0
0
transformers
[ "transformers", "safetensors", "videomae", "video-classification", "generated_from_trainer", "base_model:MCG-NJU/videomae-base", "base_model:finetune:MCG-NJU/videomae-base", "license:cc-by-nc-4.0", "endpoints_compatible", "region:us" ]
video-classification
2025-08-20T07:56:31Z
--- library_name: transformers license: cc-by-nc-4.0 base_model: MCG-NJU/videomae-base tags: - generated_from_trainer metrics: - accuracy model-index: - name: my_awesome_video_cls_model results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # my_awesome_video_cls_model This model is a fine-tuned version of [MCG-NJU/videomae-base](https://huggingface.co/MCG-NJU/videomae-base) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 0.2573 - Accuracy: 0.9286 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 1 - eval_batch_size: 1 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH_FUSED with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: linear - lr_scheduler_warmup_ratio: 0.1 - training_steps: 1200 - mixed_precision_training: Native AMP ### Training results | Training Loss | Epoch | Step | Validation Loss | Accuracy | |:-------------:|:-----:|:----:|:---------------:|:--------:| | 1.0813 | 0.25 | 300 | 1.1575 | 0.4571 | | 1.4385 | 1.25 | 600 | 1.5501 | 0.6429 | | 0.0222 | 2.25 | 900 | 0.4601 | 0.8429 | | 1.2499 | 3.25 | 1200 | 0.2573 | 0.9286 | ### Framework versions - Transformers 4.55.2 - Pytorch 2.8.0+cu126 - Datasets 4.0.0 - Tokenizers 0.21.4
SwetaJena/llama-3.2-1B-dolphin_numbers_student_12
SwetaJena
2025-08-20T07:55:16Z
0
0
transformers
[ "transformers", "safetensors", "text-generation-inference", "unsloth", "llama", "trl", "en", "base_model:unsloth/Llama-3.2-1B-Instruct", "base_model:finetune:unsloth/Llama-3.2-1B-Instruct", "license:apache-2.0", "endpoints_compatible", "region:us" ]
null
2025-08-20T07:55:09Z
--- base_model: unsloth/Llama-3.2-1B-Instruct tags: - text-generation-inference - transformers - unsloth - llama - trl license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** SwetaJena - **License:** apache-2.0 - **Finetuned from model :** unsloth/Llama-3.2-1B-Instruct This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
ElToro2602/blockassist-bc-raging_prehistoric_chameleon_1755676420
ElToro2602
2025-08-20T07:54:31Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "raging prehistoric chameleon", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:54:21Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - raging prehistoric chameleon --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
quantumxnode/blockassist-bc-dormant_peckish_seahorse_1755674677
quantumxnode
2025-08-20T07:52:11Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "dormant peckish seahorse", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:52:07Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - dormant peckish seahorse --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
AnerYubo/blockassist-bc-alert_snorting_fox_1755676248
AnerYubo
2025-08-20T07:50:51Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "alert snorting fox", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:50:48Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - alert snorting fox --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
lisaozill03/blockassist-bc-rugged_prickly_alpaca_1755674653
lisaozill03
2025-08-20T07:50:26Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "rugged prickly alpaca", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:50:18Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - rugged prickly alpaca --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
kevinshin/qwen3-1.7b-dpo-lr-1e-6-batch-16-epoch-1-wildchat-cw-3k
kevinshin
2025-08-20T07:48:47Z
0
0
transformers
[ "transformers", "safetensors", "qwen3", "text-generation", "generated_from_trainer", "dpo", "trl", "conversational", "dataset:kevinshin/wildchat-creative-writing-3k-pref", "arxiv:2305.18290", "base_model:Qwen/Qwen3-1.7B", "base_model:finetune:Qwen/Qwen3-1.7B", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-20T03:52:03Z
--- base_model: Qwen/Qwen3-1.7B datasets: kevinshin/wildchat-creative-writing-3k-pref library_name: transformers model_name: qwen3-1.7b-dpo-lr-1e-6-batch-16-epoch-1-wildchat-cw-3k tags: - generated_from_trainer - dpo - trl licence: license --- # Model Card for qwen3-1.7b-dpo-lr-1e-6-batch-16-epoch-1-wildchat-cw-3k This model is a fine-tuned version of [Qwen/Qwen3-1.7B](https://huggingface.co/Qwen/Qwen3-1.7B) on the [kevinshin/wildchat-creative-writing-3k-pref](https://huggingface.co/datasets/kevinshin/wildchat-creative-writing-3k-pref) dataset. It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="kevinshin/qwen3-1.7b-dpo-lr-1e-6-batch-16-epoch-1-wildchat-cw-3k", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/myungjune-sogang-university/general_remo_train/runs/vlm6iwxd) This model was trained with DPO, a method introduced in [Direct Preference Optimization: Your Language Model is Secretly a Reward Model](https://huggingface.co/papers/2305.18290). ### Framework versions - TRL: 0.19.1 - Transformers: 4.55.0.dev0 - Pytorch: 2.6.0+cu126 - Datasets: 4.0.0 - Tokenizers: 0.21.2 ## Citations Cite DPO as: ```bibtex @inproceedings{rafailov2023direct, title = {{Direct Preference Optimization: Your Language Model is Secretly a Reward Model}}, author = {Rafael Rafailov and Archit Sharma and Eric Mitchell and Christopher D. Manning and Stefano Ermon and Chelsea Finn}, year = 2023, booktitle = {Advances in Neural Information Processing Systems 36: Annual Conference on Neural Information Processing Systems 2023, NeurIPS 2023, New Orleans, LA, USA, December 10 - 16, 2023}, url = {http://papers.nips.cc/paper_files/paper/2023/hash/a85b405ed65c6477a4fe8302b5e06ce7-Abstract-Conference.html}, editor = {Alice Oh and Tristan Naumann and Amir Globerson and Kate Saenko and Moritz Hardt and Sergey Levine}, } ``` Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
joanna302/Qwen3-8B-Base_pag_mt_alpaca_0.66_part_SFT_0.0002
joanna302
2025-08-20T07:47:57Z
0
0
transformers
[ "transformers", "safetensors", "qwen3", "text-generation", "generated_from_trainer", "sft", "unsloth", "trl", "conversational", "base_model:unsloth/Qwen3-8B-Base", "base_model:finetune:unsloth/Qwen3-8B-Base", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T06:14:28Z
--- base_model: unsloth/Qwen3-8B-Base library_name: transformers model_name: Qwen3-8B-Base_pag_mt_alpaca_0.66_part_SFT_0.0002 tags: - generated_from_trainer - sft - unsloth - trl licence: license --- # Model Card for Qwen3-8B-Base_pag_mt_alpaca_0.66_part_SFT_0.0002 This model is a fine-tuned version of [unsloth/Qwen3-8B-Base](https://huggingface.co/unsloth/Qwen3-8B-Base). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="joanna302/Qwen3-8B-Base_pag_mt_alpaca_0.66_part_SFT_0.0002", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-8B-Base_pag_mt_alpaca_0.66_part_SFT_0.0002/runs/s7dl7p4h) This model was trained with SFT. ### Framework versions - TRL: 0.21.0 - Transformers: 4.55.2 - Pytorch: 2.8.0 - Datasets: 3.6.0 - Tokenizers: 0.21.4 ## Citations Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
Medved444/blockassist-bc-bellowing_finicky_manatee_1755674865
Medved444
2025-08-20T07:47:08Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "bellowing finicky manatee", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:46:50Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - bellowing finicky manatee --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
joanna302/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_0.0002
joanna302
2025-08-20T07:46:49Z
0
0
transformers
[ "transformers", "safetensors", "qwen3", "text-generation", "generated_from_trainer", "trl", "unsloth", "sft", "conversational", "base_model:unsloth/Qwen3-8B-Base", "base_model:finetune:unsloth/Qwen3-8B-Base", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-18T13:24:35Z
--- base_model: unsloth/Qwen3-8B-Base library_name: transformers model_name: Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_0.0002 tags: - generated_from_trainer - trl - unsloth - sft licence: license --- # Model Card for Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_0.0002 This model is a fine-tuned version of [unsloth/Qwen3-8B-Base](https://huggingface.co/unsloth/Qwen3-8B-Base). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="joanna302/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_0.0002", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_0.0002/runs/kipt4jhf) This model was trained with SFT. ### Framework versions - TRL: 0.21.0 - Transformers: 4.55.2 - Pytorch: 2.8.0 - Datasets: 3.6.0 - Tokenizers: 0.21.4 ## Citations Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
Alfie703/gemma3-270m
Alfie703
2025-08-20T07:46:20Z
0
0
transformers
[ "transformers", "tensorboard", "safetensors", "generated_from_trainer", "sft", "trl", "base_model:google/gemma-3-270m-it", "base_model:finetune:google/gemma-3-270m-it", "endpoints_compatible", "region:us" ]
null
2025-08-18T11:55:04Z
--- base_model: google/gemma-3-270m-it library_name: transformers model_name: gemma3-270m tags: - generated_from_trainer - sft - trl licence: license --- # Model Card for gemma3-270m This model is a fine-tuned version of [google/gemma-3-270m-it](https://huggingface.co/google/gemma-3-270m-it). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="Alfie703/gemma3-270m", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure This model was trained with SFT. ### Framework versions - TRL: 0.21.0 - Transformers: 4.55.2 - Pytorch: 2.5.1+cu121 - Datasets: 4.0.0 - Tokenizers: 0.21.0 ## Citations Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
kojeklollipop/blockassist-bc-spotted_amphibious_stork_1755674272
kojeklollipop
2025-08-20T07:44:54Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "spotted amphibious stork", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:44:50Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - spotted amphibious stork --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
manusiaperahu2012/blockassist-bc-roaring_long_tuna_1755673872
manusiaperahu2012
2025-08-20T07:41:12Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "roaring long tuna", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:41:06Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - roaring long tuna --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Albertdebeauvais/all-MiniLM-L6-v2_bibliographie
Albertdebeauvais
2025-08-20T07:40:53Z
8
0
sentence-transformers
[ "sentence-transformers", "safetensors", "bert", "sentence-similarity", "feature-extraction", "generated_from_trainer", "dataset_size:388038", "loss:CosineSimilarityLoss", "arxiv:1908.10084", "base_model:sentence-transformers/all-MiniLM-L6-v2", "base_model:finetune:sentence-transformers/all-MiniLM-L6-v2", "model-index", "autotrain_compatible", "text-embeddings-inference", "endpoints_compatible", "region:us" ]
sentence-similarity
2025-07-15T09:04:27Z
--- tags: - sentence-transformers - sentence-similarity - feature-extraction - generated_from_trainer - dataset_size:388038 - loss:CosineSimilarityLoss base_model: sentence-transformers/all-MiniLM-L6-v2 widget: - source_sentence: Les Chemins de l'effort, édité en 1975, Paris, éd. Actes Sud. sentences: - chisinau, Actes Sud, FECOURA, Dusty et VEHIER, Tyrrell, en 1915, « Les œufs d'or de ; oa guerre ». - Zagreb, éd. CNRS, FABRIE, Seneca, FARHAT, Hope, DE LASTIC SAINT JAL, Daniella, 1997, Poe et les enseignements de l'Est. - (1975), Paris, Actes Sud éditions, « Les Chemins de l'effort ». - source_sentence: par BURTSCHELL, Régine et ALESSANDRONI, Diggory, 1900, « Complément du catalogue analytique des manuscrits de la bibliothèque d'Abbeville », Rennes, Verlag Ferdinand Schöningh éditions. sentences: - « Complément du catalogue analytique des manuscrots de la bibliothèque d'Abbeville », Rennes, Verlag Ferdinand Schöningh éditions, BURTSCHELL, Régine, sous la direction de ALESSANDRONI, Diggory, (1900). - Vortex, le cheval fou, publié en ; 1926, , Bordeaux, L’Harmattan. - 1997, DEPOUMEAUX, Summer, « De chair et de lumière », Luxembourg, L’Harmattan éditions. - source_sentence: de Lorita, STREIFF, Petronella, MONTIALOUX, Gale, DANGOUMAU et ed Montgomery, D AUBERT, Dean Martin, (2011), Prague, éd. Peter Lang. sentences: - Amiens, University of Chicago Press, GUILLION L. et LAPERDRIX K., Autres courants, 2015. - 'Prague, éd. : Peter Lang, , (2011), "Dean Martin", pr + 20 ill.. Gale, DANGOUMAU et Lorita, STREIFF, Petronella, MONTIALOUX, Montgomery, D AUBERT.' - Valerie, PAIRA, Niles, AUDUBERT, 1986, Au gré des saisons, Amsterdam, Routledge. - source_sentence: 1948, Seattle, éd. Payot & Rivages, de Trudy, SAINT-AIME, Toponymes finnois et germaniques en Lithuanie... Remarques sur le nom de la Vistule. sentences: - Toponymes finnois et germaniques en Lithuanie... Remarques sur le nom de la Vistule, en 1952, Seattle, Payot & Rivages éditions, Delia, HOZE. - Cologne, Les Belles Lettres, Éléments de géométrie expérimentale, à l'usage des élèves des cours professionnels et des ouvriers, avec de nombreuses applications au trait, LAGEIX, Shelly, (1898). - 1887., The variations of glaciers. XVI, Jessika, ANNIEL, Chisinau, éd. Stanford University Press. - source_sentence: BENMAMAR, A. et LUZEUX, K., JARRAND-MARTIN, S., "La science alchimique", Master drawings, numéro 92, pages 511-649, 1904, Valence, éd. Zed Books. sentences: - Dublin, éd. CNRS, Les mystères de la cour de Cornouailles, N. BILLEBEAU, en 1966. - En 1939, New York, Fayard, réactions et méthodes nouvelles d'analyse qualitative minérale, BERTIER, R. - édité en 2020, Alexandre, GLERAND et Ashleigh, BIZET, "Un long voyage", Reims, Editions Payot éditions. pipeline_tag: sentence-similarity library_name: sentence-transformers metrics: - cosine_accuracy - cosine_accuracy_threshold - cosine_f1 - cosine_f1_threshold - cosine_precision - cosine_recall - cosine_ap - cosine_mcc model-index: - name: SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2 results: - task: type: binary-classification name: Binary Classification dataset: name: eval type: eval metrics: - type: cosine_accuracy value: 0.9845532980795992 name: Cosine Accuracy - type: cosine_accuracy_threshold value: 0.7197951674461365 name: Cosine Accuracy Threshold - type: cosine_f1 value: 0.9822371579452713 name: Cosine F1 - type: cosine_f1_threshold value: 0.7197951674461365 name: Cosine F1 Threshold - type: cosine_precision value: 0.9880875724404379 name: Cosine Precision - type: cosine_recall value: 0.9764556156538339 name: Cosine Recall - type: cosine_ap value: 0.9978040298718638 name: Cosine Ap - type: cosine_mcc value: 0.9686262528236084 name: Cosine Mcc - task: type: binary-classification name: Binary Classification dataset: name: test type: test metrics: - type: cosine_accuracy value: 0.9851563224788942 name: Cosine Accuracy - type: cosine_accuracy_threshold value: 0.7434847354888916 name: Cosine Accuracy Threshold - type: cosine_f1 value: 0.9829406120055443 name: Cosine F1 - type: cosine_f1_threshold value: 0.7414178252220154 name: Cosine F1 Threshold - type: cosine_precision value: 0.9907576571735626 name: Cosine Precision - type: cosine_recall value: 0.975245953665503 name: Cosine Recall - type: cosine_ap value: 0.9978710556305371 name: Cosine Ap - type: cosine_mcc value: 0.9698992765132763 name: Cosine Mcc --- # SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2 This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. ## Model Details ### Model Description - **Model Type:** Sentence Transformer - **Base model:** [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) <!-- at revision c9745ed1d9f207416be6d2e6f8de32d1f16199bf --> - **Maximum Sequence Length:** 256 tokens - **Output Dimensionality:** 384 dimensions - **Similarity Function:** Cosine Similarity <!-- - **Training Dataset:** Unknown --> <!-- - **Language:** Unknown --> <!-- - **License:** Unknown --> ### Model Sources - **Documentation:** [Sentence Transformers Documentation](https://sbert.net) - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) ### Full Model Architecture ``` SentenceTransformer( (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: BertModel (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) (2): Normalize() ) ``` ## Usage ### Direct Usage (Sentence Transformers) First install the Sentence Transformers library: ```bash pip install -U sentence-transformers ``` Then you can load this model and run inference. ```python from sentence_transformers import SentenceTransformer # Download from the 🤗 Hub model = SentenceTransformer("sentence_transformers_model_id") # Run inference sentences = [ 'BENMAMAR, A. et LUZEUX, K., JARRAND-MARTIN, S., "La science alchimique", Master drawings, numéro 92, pages 511-649, 1904, Valence, éd. Zed Books.', 'édité en 2020, Alexandre, GLERAND et Ashleigh, BIZET, "Un long voyage", Reims, Editions Payot éditions.', 'Dublin, éd. CNRS, Les mystères de la cour de Cornouailles, N. BILLEBEAU, en 1966.', ] embeddings = model.encode(sentences) print(embeddings.shape) # [3, 384] # Get the similarity scores for the embeddings similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [3, 3] ``` <!-- ### Direct Usage (Transformers) <details><summary>Click to see the direct usage in Transformers</summary> </details> --> <!-- ### Downstream Usage (Sentence Transformers) You can finetune this model on your own dataset. <details><summary>Click to expand</summary> </details> --> <!-- ### Out-of-Scope Use *List how the model may foreseeably be misused and address what users ought not to do with the model.* --> ## Evaluation ### Metrics #### Binary Classification * Datasets: `eval` and `test` * Evaluated with [<code>BinaryClassificationEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.BinaryClassificationEvaluator) | Metric | eval | test | |:--------------------------|:-----------|:-----------| | cosine_accuracy | 0.9846 | 0.9852 | | cosine_accuracy_threshold | 0.7198 | 0.7435 | | cosine_f1 | 0.9822 | 0.9829 | | cosine_f1_threshold | 0.7198 | 0.7414 | | cosine_precision | 0.9881 | 0.9908 | | cosine_recall | 0.9765 | 0.9752 | | **cosine_ap** | **0.9978** | **0.9979** | | cosine_mcc | 0.9686 | 0.9699 | <!-- ## Bias, Risks and Limitations *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* --> <!-- ### Recommendations *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* --> ## Training Details ### Training Dataset #### Unnamed Dataset * Size: 388,038 training samples * Columns: <code>text1</code>, <code>text2</code>, and <code>label</code> * Approximate statistics based on the first 1000 samples: | | text1 | text2 | label | |:--------|:------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:------------------------------------------------| | type | string | string | int | | details | <ul><li>min: 17 tokens</li><li>mean: 50.25 tokens</li><li>max: 169 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 47.08 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>0: ~57.00%</li><li>1: ~43.00%</li></ul> | * Samples: | text1 | text2 | label | |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------| | <code>(1973),. 70, p. 36-98, Revue d'histoire locale (Chevillon), 3, « La Font perduda », Berlin, éd. Maison des Sciences de l’Homme, editor Dorcas, PEDEVILLA, Alannis, GRANZOTTO, Annabel, VOYRON, Dulcie, MIGLIORI.</code> | <code>Revue d'histoire locale (Chevillon)</code> | <code>0</code> | | <code>Revista del Instituto Egipcio de Estudios Islámicos, n°100, pages 483-496, (2006), Administration et bibliothèques, CAGLAYAN, Kaden, BOULAABI, Fredrick, WORMSER, Bea, Vienne, éd. Beacon Press.</code> | <code>WORMSER, Bea, CAGLAYAN, Kaden, ed BOULAABI, Fredrick, édité en 2006, Administration et bibliothèques, Revista del Instituto Egipcio de Estudios Islámicos,. 100,. p. 483-496, Vienne, Beacon Press.</code> | <code>1</code> | | <code>Atlantic Charter (1941), Bulletin de la Société d'Histoire et d'Archéologie de Nantes et de Loire-Atlantique,. numéro 31, pp. 997-1125, Léontine, SCHWERDROFFER, Sandford, CHUDZIK, Metz, Zed Books éditions, 1941.</code> | <code>(1941),. n° 31, Bulletin de la Société d'Histoire et d'Archéologie de Nantes et de Loire-Atlantique, pages 997-1125, Atlantic Charter (1941), Léontine, SCHWERDROFFER, Sandford, CHUDZIK, Metz, Zed Books.</code> | <code>1</code> | * Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters: ```json { "loss_fct": "torch.nn.modules.loss.MSELoss" } ``` ### Evaluation Dataset #### Unnamed Dataset * Size: 21,558 evaluation samples * Columns: <code>text1</code>, <code>text2</code>, and <code>label</code> * Approximate statistics based on the first 1000 samples: | | text1 | text2 | label | |:--------|:------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:------------------------------------------------| | type | string | string | int | | details | <ul><li>min: 15 tokens</li><li>mean: 49.64 tokens</li><li>max: 145 tokens</li></ul> | <ul><li>min: 3 tokens</li><li>mean: 46.31 tokens</li><li>max: 160 tokens</li></ul> | <ul><li>0: ~57.70%</li><li>1: ~42.30%</li></ul> | * Samples: | text1 | text2 | label | |:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------| | <code>Le Progressisme, aspects doctrinaux, DURAZ, Constance, 1955, Montpellier, éd. Routledge,. vol. 1,. pp. 26-39, n°29, Journal of philosophical research.</code> | <code>1955, "Le Progressisme, aspects doctrinaux", Montpellier, Routledge, Journal of philosophical research, pp. 26-39,. volume 1, #29.</code> | <code>1</code> | | <code>Turin, éd. Suhrkamp Verlag, #17, pages 67-111, 2, Annales d'Avignon et du Comtat Venaissin, "Faire face aux crises de colère de l'enfant et de l'adolescent", ed HERREYE, Kassidy, (2019).</code> | <code>Amsterdam, University of Minnesota Press éditions, (1968), "Ainsi de chaque jour".</code> | <code>0</code> | | <code>« Discours et conférences sur la science et ses applications », publié en 1927, Tours, éd. Actes Sud, Cherise, THIEFIN et de Eudora, FINGERHUT et Rona, DELLAL et Josette, DEGIOANNINI.</code> | <code> Les formes verbales du conditionnel dans le vieux sanskrit , Eudora, FINGERHUT et Cherise, THIEFIN et par Rona, DELLAL, par Josette, DEGIOANNINI, Tours, Actes Sud éditions, publié en 1927.</code> | <code>0</code> | * Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters: ```json { "loss_fct": "torch.nn.modules.loss.MSELoss" } ``` ### Training Hyperparameters #### Non-Default Hyperparameters - `eval_strategy`: epoch - `per_device_train_batch_size`: 20 - `per_device_eval_batch_size`: 20 - `learning_rate`: 3e-05 #### All Hyperparameters <details><summary>Click to expand</summary> - `overwrite_output_dir`: False - `do_predict`: False - `eval_strategy`: epoch - `prediction_loss_only`: True - `per_device_train_batch_size`: 20 - `per_device_eval_batch_size`: 20 - `per_gpu_train_batch_size`: None - `per_gpu_eval_batch_size`: None - `gradient_accumulation_steps`: 1 - `eval_accumulation_steps`: None - `torch_empty_cache_steps`: None - `learning_rate`: 3e-05 - `weight_decay`: 0.0 - `adam_beta1`: 0.9 - `adam_beta2`: 0.999 - `adam_epsilon`: 1e-08 - `max_grad_norm`: 1.0 - `num_train_epochs`: 3 - `max_steps`: -1 - `lr_scheduler_type`: linear - `lr_scheduler_kwargs`: {} - `warmup_ratio`: 0.0 - `warmup_steps`: 0 - `log_level`: passive - `log_level_replica`: warning - `log_on_each_node`: True - `logging_nan_inf_filter`: True - `save_safetensors`: True - `save_on_each_node`: False - `save_only_model`: False - `restore_callback_states_from_checkpoint`: False - `no_cuda`: False - `use_cpu`: False - `use_mps_device`: False - `seed`: 42 - `data_seed`: None - `jit_mode_eval`: False - `use_ipex`: False - `bf16`: False - `fp16`: False - `fp16_opt_level`: O1 - `half_precision_backend`: auto - `bf16_full_eval`: False - `fp16_full_eval`: False - `tf32`: None - `local_rank`: 0 - `ddp_backend`: None - `tpu_num_cores`: None - `tpu_metrics_debug`: False - `debug`: [] - `dataloader_drop_last`: False - `dataloader_num_workers`: 0 - `dataloader_prefetch_factor`: None - `past_index`: -1 - `disable_tqdm`: False - `remove_unused_columns`: True - `label_names`: None - `load_best_model_at_end`: False - `ignore_data_skip`: False - `fsdp`: [] - `fsdp_min_num_params`: 0 - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} - `fsdp_transformer_layer_cls_to_wrap`: None - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} - `deepspeed`: None - `label_smoothing_factor`: 0.0 - `optim`: adamw_torch - `optim_args`: None - `adafactor`: False - `group_by_length`: False - `length_column_name`: length - `ddp_find_unused_parameters`: None - `ddp_bucket_cap_mb`: None - `ddp_broadcast_buffers`: False - `dataloader_pin_memory`: True - `dataloader_persistent_workers`: False - `skip_memory_metrics`: True - `use_legacy_prediction_loop`: False - `push_to_hub`: False - `resume_from_checkpoint`: None - `hub_model_id`: None - `hub_strategy`: every_save - `hub_private_repo`: None - `hub_always_push`: False - `gradient_checkpointing`: False - `gradient_checkpointing_kwargs`: None - `include_inputs_for_metrics`: False - `include_for_metrics`: [] - `eval_do_concat_batches`: True - `fp16_backend`: auto - `push_to_hub_model_id`: None - `push_to_hub_organization`: None - `mp_parameters`: - `auto_find_batch_size`: False - `full_determinism`: False - `torchdynamo`: None - `ray_scope`: last - `ddp_timeout`: 1800 - `torch_compile`: False - `torch_compile_backend`: None - `torch_compile_mode`: None - `include_tokens_per_second`: False - `include_num_input_tokens_seen`: False - `neftune_noise_alpha`: None - `optim_target_modules`: None - `batch_eval_metrics`: False - `eval_on_start`: False - `use_liger_kernel`: False - `eval_use_gather_object`: False - `average_tokens_across_devices`: False - `prompts`: None - `batch_sampler`: batch_sampler - `multi_dataset_batch_sampler`: proportional </details> ### Training Logs <details><summary>Click to expand</summary> | Epoch | Step | Training Loss | Validation Loss | eval_cosine_ap | test_cosine_ap | |:------:|:-----:|:-------------:|:---------------:|:--------------:|:--------------:| | -1 | -1 | - | - | 0.8231 | - | | 0.0258 | 500 | 0.1033 | - | - | - | | 0.0515 | 1000 | 0.0885 | - | - | - | | 0.0773 | 1500 | 0.0778 | - | - | - | | 0.1031 | 2000 | 0.0721 | - | - | - | | 0.1289 | 2500 | 0.0697 | - | - | - | | 0.1546 | 3000 | 0.0645 | - | - | - | | 0.1804 | 3500 | 0.0619 | - | - | - | | 0.2062 | 4000 | 0.0604 | - | - | - | | 0.2319 | 4500 | 0.0569 | - | - | - | | 0.2577 | 5000 | 0.0545 | - | - | - | | 0.2835 | 5500 | 0.0539 | - | - | - | | 0.3092 | 6000 | 0.0517 | - | - | - | | 0.3350 | 6500 | 0.0506 | - | - | - | | 0.3608 | 7000 | 0.0511 | - | - | - | | 0.3866 | 7500 | 0.0486 | - | - | - | | 0.4123 | 8000 | 0.0463 | - | - | - | | 0.4381 | 8500 | 0.0463 | - | - | - | | 0.4639 | 9000 | 0.0471 | - | - | - | | 0.4896 | 9500 | 0.0454 | - | - | - | | 0.5154 | 10000 | 0.0445 | - | - | - | | 0.5412 | 10500 | 0.0455 | - | - | - | | 0.5670 | 11000 | 0.0441 | - | - | - | | 0.5927 | 11500 | 0.0437 | - | - | - | | 0.6185 | 12000 | 0.0449 | - | - | - | | 0.6443 | 12500 | 0.0413 | - | - | - | | 0.6700 | 13000 | 0.0413 | - | - | - | | 0.6958 | 13500 | 0.0422 | - | - | - | | 0.7216 | 14000 | 0.0411 | - | - | - | | 0.7473 | 14500 | 0.0404 | - | - | - | | 0.7731 | 15000 | 0.0374 | - | - | - | | 0.7989 | 15500 | 0.0378 | - | - | - | | 0.8247 | 16000 | 0.0384 | - | - | - | | 0.8504 | 16500 | 0.0389 | - | - | - | | 0.8762 | 17000 | 0.0377 | - | - | - | | 0.9020 | 17500 | 0.0374 | - | - | - | | 0.9277 | 18000 | 0.0366 | - | - | - | | 0.9535 | 18500 | 0.0368 | - | - | - | | 0.9793 | 19000 | 0.0367 | - | - | - | | 1.0 | 19402 | - | 0.0310 | 0.9965 | - | | 1.0051 | 19500 | 0.0364 | - | - | - | | 1.0308 | 20000 | 0.0323 | - | - | - | | 1.0566 | 20500 | 0.0319 | - | - | - | | 1.0824 | 21000 | 0.0317 | - | - | - | | 1.1081 | 21500 | 0.0298 | - | - | - | | 1.1339 | 22000 | 0.0336 | - | - | - | | 1.1597 | 22500 | 0.0304 | - | - | - | | 1.1854 | 23000 | 0.0302 | - | - | - | | 1.2112 | 23500 | 0.031 | - | - | - | | 1.2370 | 24000 | 0.0301 | - | - | - | | 1.2628 | 24500 | 0.0302 | - | - | - | | 1.2885 | 25000 | 0.0305 | - | - | - | | 1.3143 | 25500 | 0.0293 | - | - | - | | 1.3401 | 26000 | 0.0307 | - | - | - | | 1.3658 | 26500 | 0.0304 | - | - | - | | 1.3916 | 27000 | 0.03 | - | - | - | | 1.4174 | 27500 | 0.0312 | - | - | - | | 1.4432 | 28000 | 0.0296 | - | - | - | | 1.4689 | 28500 | 0.0301 | - | - | - | | 1.4947 | 29000 | 0.0295 | - | - | - | | 1.5205 | 29500 | 0.0295 | - | - | - | | 1.5462 | 30000 | 0.029 | - | - | - | | 1.5720 | 30500 | 0.0295 | - | - | - | | 1.5978 | 31000 | 0.029 | - | - | - | | 1.6235 | 31500 | 0.029 | - | - | - | | 1.6493 | 32000 | 0.0271 | - | - | - | | 1.6751 | 32500 | 0.029 | - | - | - | | 1.7009 | 33000 | 0.0278 | - | - | - | | 1.7266 | 33500 | 0.0286 | - | - | - | | 1.7524 | 34000 | 0.0272 | - | - | - | | 1.7782 | 34500 | 0.0279 | - | - | - | | 1.8039 | 35000 | 0.0285 | - | - | - | | 1.8297 | 35500 | 0.0286 | - | - | - | | 1.8555 | 36000 | 0.0297 | - | - | - | | 1.8812 | 36500 | 0.0273 | - | - | - | | 1.9070 | 37000 | 0.0269 | - | - | - | | 1.9328 | 37500 | 0.0276 | - | - | - | | 1.9586 | 38000 | 0.0278 | - | - | - | | 1.9843 | 38500 | 0.0267 | - | - | - | | 2.0 | 38804 | - | 0.0248 | 0.9976 | - | | 2.0101 | 39000 | 0.0252 | - | - | - | | 2.0359 | 39500 | 0.0233 | - | - | - | | 2.0616 | 40000 | 0.0233 | - | - | - | | 2.0874 | 40500 | 0.0236 | - | - | - | | 2.1132 | 41000 | 0.023 | - | - | - | | 2.1390 | 41500 | 0.0212 | - | - | - | | 2.1647 | 42000 | 0.0233 | - | - | - | | 2.1905 | 42500 | 0.0227 | - | - | - | | 2.2163 | 43000 | 0.0227 | - | - | - | | 2.2420 | 43500 | 0.0233 | - | - | - | | 2.2678 | 44000 | 0.0241 | - | - | - | | 2.2936 | 44500 | 0.0218 | - | - | - | | 2.3193 | 45000 | 0.0232 | - | - | - | | 2.3451 | 45500 | 0.0235 | - | - | - | | 2.3709 | 46000 | 0.024 | - | - | - | | 2.3967 | 46500 | 0.0237 | - | - | - | | 2.4224 | 47000 | 0.0228 | - | - | - | | 2.4482 | 47500 | 0.0231 | - | - | - | | 2.4740 | 48000 | 0.0223 | - | - | - | | 2.4997 | 48500 | 0.0232 | - | - | - | | 2.5255 | 49000 | 0.022 | - | - | - | | 2.5513 | 49500 | 0.0227 | - | - | - | | 2.5771 | 50000 | 0.0226 | - | - | - | | 2.6028 | 50500 | 0.0233 | - | - | - | | 2.6286 | 51000 | 0.0224 | - | - | - | | 2.6544 | 51500 | 0.0224 | - | - | - | | 2.6801 | 52000 | 0.0224 | - | - | - | | 2.7059 | 52500 | 0.022 | - | - | - | | 2.7317 | 53000 | 0.0223 | - | - | - | | 2.7574 | 53500 | 0.023 | - | - | - | | 2.7832 | 54000 | 0.023 | - | - | - | | 2.8090 | 54500 | 0.023 | - | - | - | | 2.8348 | 55000 | 0.0225 | - | - | - | | 2.8605 | 55500 | 0.0229 | - | - | - | | 2.8863 | 56000 | 0.0229 | - | - | - | | 2.9121 | 56500 | 0.0224 | - | - | - | | 2.9378 | 57000 | 0.0218 | - | - | - | | 2.9636 | 57500 | 0.0226 | - | - | - | | 2.9894 | 58000 | 0.0229 | - | - | - | | 3.0 | 58206 | - | 0.0231 | 0.9978 | - | | -1 | -1 | - | - | - | 0.9979 | </details> ### Framework Versions - Python: 3.12.0 - Sentence Transformers: 4.1.0 - Transformers: 4.52.4 - PyTorch: 2.7.1+cu128 - Accelerate: 1.8.1 - Datasets: 3.6.0 - Tokenizers: 0.21.2 ## Citation ### BibTeX #### Sentence Transformers ```bibtex @inproceedings{reimers-2019-sentence-bert, title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", author = "Reimers, Nils and Gurevych, Iryna", booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", month = "11", year = "2019", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/1908.10084", } ``` <!-- ## Glossary *Clearly define terms in order to be accessible across audiences.* --> <!-- ## Model Card Authors *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* --> <!-- ## Model Card Contact *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* -->
lautan/blockassist-bc-gentle_patterned_goat_1755673896
lautan
2025-08-20T07:39:59Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "gentle patterned goat", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:39:55Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - gentle patterned goat --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
chowshib/blockassist-bc-majestic_melodic_beaver_1755675476
chowshib
2025-08-20T07:39:27Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "majestic melodic beaver", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:39:16Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - majestic melodic beaver --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Gemneye/Gabby
Gemneye
2025-08-20T07:37:29Z
0
0
diffusers
[ "diffusers", "text-to-image", "lora", "template:diffusion-lora", "base_model:black-forest-labs/FLUX.1-dev", "base_model:adapter:black-forest-labs/FLUX.1-dev", "license:apache-2.0", "region:us" ]
text-to-image
2025-08-20T07:16:23Z
--- tags: - text-to-image - lora - diffusers - template:diffusion-lora widget: - output: url: images/gabby-043.jpg text: '-' - output: url: images/Gabby-001.jpg text: >- 🟨 Scene Setup Location: Tokyo Tower Time of Day / Lighting: Sunset with warm golden light Mood / Atmosphere: Romantic and serene Camera Type: DSLR Lens Type: 50mm Aperture & Depth of Field: f/1.8, shallow depth of field Camera Angle & Framing: Low angle, close-up 🟩 Subject Description Age / Ethnicity / Gender: Young adult, mixed race, female Hair: Curly brown hair Eyes: Dark brown eyes Clothing & Accessories: Red dress Pose / Body Language: Standing confidently Facial Expression: Soft smile Skin Details / Texture: Smooth, natural glow 🟦 Background & Environmental Detail Foreground Elements: Blurred city lights Midground Composition: Tokyo Tower Background Elements: Skyline with soft clouds Lighting Effects: Warm glow, lens flare Color, Materials, Texture: Vibrant reds, soft golds 🟪 Style & Realism Enhancers Style Reference / Genre: Fashion photography Realism Tags: High focus, realistic lighting, detailed anatomy, lifelike texture base_model: black-forest-labs/FLUX.1-dev instance_prompt: G@bby license: apache-2.0 --- # Gabby <Gallery /> ## Model description Gabby trained with AI-toolkit ## Trigger words You should use `G@bby` to trigger the image generation. ## Download model [Download](/Gemneye/Gabby/tree/main) them in the Files & versions tab.
thanobidex/blockassist-bc-colorful_shiny_hare_1755673874
thanobidex
2025-08-20T07:37:21Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "colorful shiny hare", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:37:16Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - colorful shiny hare --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
arianaazarbal/standard_tpr_0.65_test-20250820_070706-policy-adapter
arianaazarbal
2025-08-20T07:35:40Z
0
0
null
[ "safetensors", "region:us" ]
null
2025-08-20T07:34:41Z
# Policy Model LoRA Adapter (GRPO/DPO) Experiment: standard_tpr_0.65_test Timestamp: 20250820_070706 This model was trained as part of the deception-evasion-honesty experiments. ## Model Details - **Type**: Policy Model LoRA Adapter (GRPO/DPO) - **Experiment Name**: standard_tpr_0.65_test - **Training Timestamp**: 20250820_070706
nema122/blockassist-bc-robust_fluffy_ram_1755675206
nema122
2025-08-20T07:35:04Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "robust fluffy ram", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:34:57Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - robust fluffy ram --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
sampingkaca72/blockassist-bc-armored_stealthy_elephant_1755673744
sampingkaca72
2025-08-20T07:34:13Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "armored stealthy elephant", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:34:09Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - armored stealthy elephant --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
arianaazarbal/standard_tpr_0.65_test-20250820_070706-lr-detector
arianaazarbal
2025-08-20T07:33:07Z
0
0
null
[ "region:us" ]
null
2025-08-20T07:33:05Z
# Logistic Regression Lie Detector Experiment: standard_tpr_0.65_test Timestamp: 20250820_070706 This model was trained as part of the deception-evasion-honesty experiments. ## Model Details - **Type**: Logistic Regression Lie Detector - **Experiment Name**: standard_tpr_0.65_test - **Training Timestamp**: 20250820_070706
hobson123/blockassist-bc-mammalian_dense_gibbon_1755674761
hobson123
2025-08-20T07:32:08Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "mammalian dense gibbon", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:31:52Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - mammalian dense gibbon --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
eniffA/Affine-Look-Mum-I-Made-It-On-The-Internet
eniffA
2025-08-20T07:28:51Z
232
0
transformers
[ "transformers", "safetensors", "gpt_oss", "text-generation", "vllm", "conversational", "license:apache-2.0", "autotrain_compatible", "endpoints_compatible", "8-bit", "mxfp4", "region:us" ]
text-generation
2025-08-11T14:25:08Z
--- license: apache-2.0 pipeline_tag: text-generation library_name: transformers tags: - vllm --- <p align="center"> <img alt="gpt-oss-20b" src="https://raw.githubusercontent.com/openai/gpt-oss/main/docs/gpt-oss-20b.svg"> </p> <p align="center"> <a href="https://gpt-oss.com"><strong>Try gpt-oss</strong></a> · <a href="https://cookbook.openai.com/topic/gpt-oss"><strong>Guides</strong></a> · <a href="https://openai.com/index/gpt-oss-model-card"><strong>Model card</strong></a> · <a href="https://openai.com/index/introducing-gpt-oss/"><strong>OpenAI blog</strong></a> </p> <br> Welcome to the gpt-oss series, [OpenAI’s open-weight models](https://openai.com/open-models) designed for powerful reasoning, agentic tasks, and versatile developer use cases. We’re releasing two flavors of these open models: - `gpt-oss-120b` — for production, general purpose, high reasoning use cases that fit into a single 80GB GPU (like NVIDIA H100 or AMD MI300X) (117B parameters with 5.1B active parameters) - `gpt-oss-20b` — for lower latency, and local or specialized use cases (21B parameters with 3.6B active parameters) Both models were trained on our [harmony response format](https://github.com/openai/harmony) and should only be used with the harmony format as it will not work correctly otherwise. > [!NOTE] > This model card is dedicated to the smaller `gpt-oss-20b` model. Check out [`gpt-oss-120b`](https://huggingface.co/openai/gpt-oss-120b) for the larger model. # Highlights * **Permissive Apache 2.0 license:** Build freely without copyleft restrictions or patent risk—ideal for experimentation, customization, and commercial deployment. * **Configurable reasoning effort:** Easily adjust the reasoning effort (low, medium, high) based on your specific use case and latency needs. * **Full chain-of-thought:** Gain complete access to the model’s reasoning process, facilitating easier debugging and increased trust in outputs. It’s not intended to be shown to end users. * **Fine-tunable:** Fully customize models to your specific use case through parameter fine-tuning. * **Agentic capabilities:** Use the models’ native capabilities for function calling, [web browsing](https://github.com/openai/gpt-oss/tree/main?tab=readme-ov-file#browser), [Python code execution](https://github.com/openai/gpt-oss/tree/main?tab=readme-ov-file#python), and Structured Outputs. * **Native MXFP4 quantization:** The models are trained with native MXFP4 precision for the MoE layer, making `gpt-oss-120b` run on a single 80GB GPU (like NVIDIA H100 or AMD MI300X) and the `gpt-oss-20b` model run within 16GB of memory. --- # Inference examples ## Transformers You can use `gpt-oss-120b` and `gpt-oss-20b` with Transformers. If you use the Transformers chat template, it will automatically apply the [harmony response format](https://github.com/openai/harmony). If you use `model.generate` directly, you need to apply the harmony format manually using the chat template or use our [openai-harmony](https://github.com/openai/harmony) package. To get started, install the necessary dependencies to setup your environment: ``` pip install -U transformers kernels torch ``` Once, setup you can proceed to run the model by running the snippet below: ```py from transformers import pipeline import torch model_id = "openai/gpt-oss-20b" pipe = pipeline( "text-generation", model=model_id, torch_dtype="auto", device_map="auto", ) messages = [ {"role": "user", "content": "Explain quantum mechanics clearly and concisely."}, ] outputs = pipe( messages, max_new_tokens=256, ) print(outputs[0]["generated_text"][-1]) ``` Alternatively, you can run the model via [`Transformers Serve`](https://huggingface.co/docs/transformers/main/serving) to spin up a OpenAI-compatible webserver: ``` transformers serve transformers chat localhost:8000 --model-name-or-path openai/gpt-oss-20b ``` [Learn more about how to use gpt-oss with Transformers.](https://cookbook.openai.com/articles/gpt-oss/run-transformers) ## vLLM vLLM recommends using [uv](https://docs.astral.sh/uv/) for Python dependency management. You can use vLLM to spin up an OpenAI-compatible webserver. The following command will automatically download the model and start the server. ```bash uv pip install --pre vllm==0.10.1+gptoss \ --extra-index-url https://wheels.vllm.ai/gpt-oss/ \ --extra-index-url https://download.pytorch.org/whl/nightly/cu128 \ --index-strategy unsafe-best-match vllm serve openai/gpt-oss-20b ``` [Learn more about how to use gpt-oss with vLLM.](https://cookbook.openai.com/articles/gpt-oss/run-vllm) ## PyTorch / Triton To learn about how to use this model with PyTorch and Triton, check out our [reference implementations in the gpt-oss repository](https://github.com/openai/gpt-oss?tab=readme-ov-file#reference-pytorch-implementation). ## Ollama If you are trying to run gpt-oss on consumer hardware, you can use Ollama by running the following commands after [installing Ollama](https://ollama.com/download). ```bash # gpt-oss-20b ollama pull gpt-oss:20b ollama run gpt-oss:20b ``` [Learn more about how to use gpt-oss with Ollama.](https://cookbook.openai.com/articles/gpt-oss/run-locally-ollama) #### LM Studio If you are using [LM Studio](https://lmstudio.ai/) you can use the following commands to download. ```bash # gpt-oss-20b lms get openai/gpt-oss-20b ``` Check out our [awesome list](https://github.com/openai/gpt-oss/blob/main/awesome-gpt-oss.md) for a broader collection of gpt-oss resources and inference partners. --- # Download the model You can download the model weights from the [Hugging Face Hub](https://huggingface.co/collections/openai/gpt-oss-68911959590a1634ba11c7a4) directly from Hugging Face CLI: ```shell # gpt-oss-20b huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/ pip install gpt-oss python -m gpt_oss.chat model/ ``` # Reasoning levels You can adjust the reasoning level that suits your task across three levels: * **Low:** Fast responses for general dialogue. * **Medium:** Balanced speed and detail. * **High:** Deep and detailed analysis. The reasoning level can be set in the system prompts, e.g., "Reasoning: high". # Tool use The gpt-oss models are excellent for: * Web browsing (using built-in browsing tools) * Function calling with defined schemas * Agentic operations like browser tasks # Fine-tuning Both gpt-oss models can be fine-tuned for a variety of specialized use cases. This smaller model `gpt-oss-20b` can be fine-tuned on consumer hardware, whereas the larger [`gpt-oss-120b`](https://huggingface.co/openai/gpt-oss-120b) can be fine-tuned on a single H100 node.
jo-mengr/mmcontext-pubmedbert-v2
jo-mengr
2025-08-20T07:27:23Z
0
0
sentence-transformers
[ "sentence-transformers", "safetensors", "sentence-similarity", "feature-extraction", "dense", "generated_from_trainer", "dataset_size:143054", "loss:MultipleNegativesRankingLoss", "code", "dataset:jo-mengr/cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation", "dataset:jo-mengr/geo_70k_multiplets_natural_language_annotation", "arxiv:1908.10084", "arxiv:1705.00652", "base_model:NeuML/pubmedbert-base-embeddings", "base_model:finetune:NeuML/pubmedbert-base-embeddings", "model-index", "autotrain_compatible", "endpoints_compatible", "region:us" ]
sentence-similarity
2025-08-20T07:27:03Z
--- language: - code tags: - sentence-transformers - sentence-similarity - feature-extraction - dense - generated_from_trainer - dataset_size:143054 - loss:MultipleNegativesRankingLoss base_model: NeuML/pubmedbert-base-embeddings widget: - source_sentence: SRX3675798 sentences: - This measurement was conducted with Illumina HiSeq 2500. UM-UC18 bladder cancer cell line, a type of urinary bladder cancer cell line, cultured for study of bladder disease, cancer cell proliferation, and neoplasm. - This measurement was conducted with Illumina HiSeq 2500. 15-year-old female patient with osteosarcoma, a type of connective tissue disease affecting the bone. The sample is from a U2OS cell line that has been transfected with siCTR, irradiated with 4Gy (1Gy/min) and allowed to recover for 4 hours. - SRX2405554 - source_sentence: SRX11176536 sentences: - SRX2405554 - This measurement was conducted with Illumina HiSeq 2500. UM-UC18 bladder cancer cell line, a type of urinary bladder cancer cell line, cultured for study of bladder disease, cancer cell proliferation, and neoplasm. - This measurement was conducted with NextSeq 500. A sample of cervical adenocarcinoma cells (HeLa) that have been modified to be Tet-pLKO\_shGFP stable cells, with no IP antibody or nucleotide alteration treatment. This cell line is often used as a control for dox-inducible RNAi screens. - source_sentence: census_fd072bc3-2dfb-46f8-b4e3-467cb3223182_3844 sentences: - This measurement was conducted with 10x 5' v1. T cell derived from skin tissue of a female at the 15th week post-fertilization human stage, identified as CYCLING_T cell type. - This measurement was conducted with 10x 5' v1. Erythrocyte cells at Carnegie stage 20, taken from a male yolk sac. - census_fd072bc3-2dfb-46f8-b4e3-467cb3223182_896 - source_sentence: census_6ed0bb6c-a9e3-4ba6-9436-7c8fd4e206f0_105 sentences: - This measurement was conducted with 10x 3' v3. Neuron cell type from a 50-year-old male human, specifically from the Inferior frontal gyrus (IFG) within the Ventrolateral prefrontal cortex (A44-A45) region, with European self-reported ethnicity, identified as an MGE interneuron. - This measurement was conducted with 10x 3' v3. Neuron cell type from a 42-year-old male human, specifically from the cerebral cortex (Cx), inferior frontal gyrus (IFG), ventrolateral prefrontal cortex, and A44-A45 region, with European self-reported ethnicity. - census_6ed0bb6c-a9e3-4ba6-9436-7c8fd4e206f0_633 - source_sentence: census_1b9d8702-5af8-4142-85ed-020eb06ec4f6_20229 sentences: - This measurement was conducted with 10x 5' v2. Sample contains regulatory T cells (Tregs), specifically T cells, from a female individual in her eighth decade, isolated from a thoracic lymph node. - census_1b9d8702-5af8-4142-85ed-020eb06ec4f6_14951 - This measurement was conducted with 10x 3' v3. Terminally differentiated CD8+ T cells from the lung tissue of a male individual in his sixties. datasets: - jo-mengr/cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation - jo-mengr/geo_70k_multiplets_natural_language_annotation pipeline_tag: sentence-similarity library_name: sentence-transformers metrics: - cosine_accuracy model-index: - name: SentenceTransformer based on NeuML/pubmedbert-base-embeddings results: - task: type: triplet name: Triplet dataset: name: cellxgene pseudo bulk 100k multiplets natural language annotation cell sentence 1 type: cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation_cell_sentence_1 metrics: - type: cosine_accuracy value: 0.5292420387268066 name: Cosine Accuracy - task: type: triplet name: Triplet dataset: name: geo 70k multiplets natural language annotation cell sentence 1 type: geo_70k_multiplets_natural_language_annotation_cell_sentence_1 metrics: - type: cosine_accuracy value: 0.7119258046150208 name: Cosine Accuracy --- # SentenceTransformer based on NeuML/pubmedbert-base-embeddings This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [NeuML/pubmedbert-base-embeddings](https://huggingface.co/NeuML/pubmedbert-base-embeddings) on the [cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation](https://huggingface.co/datasets/jo-mengr/cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation) and [geo_70k_multiplets_natural_language_annotation](https://huggingface.co/datasets/jo-mengr/geo_70k_multiplets_natural_language_annotation) datasets. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. ## Model Details ### Model Description - **Model Type:** Sentence Transformer - **Base model:** [NeuML/pubmedbert-base-embeddings](https://huggingface.co/NeuML/pubmedbert-base-embeddings) <!-- at revision d6eaca8254bc229f3ca42749a5510ae287eb3486 --> - **Maximum Sequence Length:** 512 tokens - **Output Dimensionality:** 1024 dimensions - **Similarity Function:** Cosine Similarity - **Training Datasets:** - [cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation](https://huggingface.co/datasets/jo-mengr/cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation) - [geo_70k_multiplets_natural_language_annotation](https://huggingface.co/datasets/jo-mengr/geo_70k_multiplets_natural_language_annotation) - **Language:** code <!-- - **License:** Unknown --> ### Model Sources - **Documentation:** [Sentence Transformers Documentation](https://sbert.net) - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) ### Full Model Architecture ``` SentenceTransformer( (0): MMContextEncoder( (text_encoder): BertModel( (embeddings): BertEmbeddings( (word_embeddings): Embedding(30522, 768, padding_idx=0) (position_embeddings): Embedding(512, 768) (token_type_embeddings): Embedding(2, 768) (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True) (dropout): Dropout(p=0.1, inplace=False) ) (encoder): BertEncoder( (layer): ModuleList( (0-11): 12 x BertLayer( (attention): BertAttention( (self): BertSdpaSelfAttention( (query): Linear(in_features=768, out_features=768, bias=True) (key): Linear(in_features=768, out_features=768, bias=True) (value): Linear(in_features=768, out_features=768, bias=True) (dropout): Dropout(p=0.1, inplace=False) ) (output): BertSelfOutput( (dense): Linear(in_features=768, out_features=768, bias=True) (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True) (dropout): Dropout(p=0.1, inplace=False) ) ) (intermediate): BertIntermediate( (dense): Linear(in_features=768, out_features=3072, bias=True) (intermediate_act_fn): GELUActivation() ) (output): BertOutput( (dense): Linear(in_features=3072, out_features=768, bias=True) (LayerNorm): LayerNorm((768,), eps=1e-12, elementwise_affine=True) (dropout): Dropout(p=0.1, inplace=False) ) ) ) ) (pooler): BertPooler( (dense): Linear(in_features=768, out_features=768, bias=True) (activation): Tanh() ) ) (text_adapter): AdapterModule( (net): Sequential( (0): Linear(in_features=768, out_features=512, bias=True) (1): ReLU(inplace=True) (2): Linear(in_features=512, out_features=1024, bias=True) (3): BatchNorm1d(1024, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) ) ) (pooling): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) ) ) ``` ## Usage ### Direct Usage (Sentence Transformers) First install the Sentence Transformers library: ```bash pip install -U sentence-transformers ``` Then you can load this model and run inference. ```python from sentence_transformers import SentenceTransformer # Download from the 🤗 Hub model = SentenceTransformer("jo-mengr/mmcontext-pubmedbert-v2") # Run inference sentences = [ 'census_1b9d8702-5af8-4142-85ed-020eb06ec4f6_20229', "This measurement was conducted with 10x 3' v3. Terminally differentiated CD8+ T cells from the lung tissue of a male individual in his sixties.", "This measurement was conducted with 10x 5' v2. Sample contains regulatory T cells (Tregs), specifically T cells, from a female individual in her eighth decade, isolated from a thoracic lymph node.", ] embeddings = model.encode(sentences) print(embeddings.shape) # [3, 1024] # Get the similarity scores for the embeddings similarities = model.similarity(embeddings, embeddings) print(similarities) # tensor([[1.0000, 0.4047, 0.4202], # [0.4047, 1.0000, 0.9129], # [0.4202, 0.9129, 1.0000]]) ``` <!-- ### Direct Usage (Transformers) <details><summary>Click to see the direct usage in Transformers</summary> </details> --> <!-- ### Downstream Usage (Sentence Transformers) You can finetune this model on your own dataset. <details><summary>Click to expand</summary> </details> --> <!-- ### Out-of-Scope Use *List how the model may foreseeably be misused and address what users ought not to do with the model.* --> ## Evaluation ### Metrics #### Triplet * Datasets: `cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation_cell_sentence_1` and `geo_70k_multiplets_natural_language_annotation_cell_sentence_1` * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator) | Metric | cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation_cell_sentence_1 | geo_70k_multiplets_natural_language_annotation_cell_sentence_1 | |:--------------------|:----------------------------------------------------------------------------------|:---------------------------------------------------------------| | **cosine_accuracy** | **0.5292** | **0.7119** | <!-- ## Bias, Risks and Limitations *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* --> <!-- ### Recommendations *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* --> ## Training Details ### Training Datasets #### cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation * Dataset: [cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation](https://huggingface.co/datasets/jo-mengr/cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation) at [b141493](https://huggingface.co/datasets/jo-mengr/cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation/tree/b141493854960a0e33c4583cab3c497379c1f8f0) * Size: 81,143 training samples * Columns: <code>anchor</code>, <code>positive</code>, <code>negative_1</code>, and <code>negative_2</code> * Approximate statistics based on the first 1000 samples: | | anchor | positive | negative_1 | negative_2 | |:--------|:-----------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------| | type | string | string | string | string | | details | <ul><li>min: 45 characters</li><li>mean: 47.72 characters</li><li>max: 49 characters</li></ul> | <ul><li>min: 92 characters</li><li>mean: 216.13 characters</li><li>max: 900 characters</li></ul> | <ul><li>min: 101 characters</li><li>mean: 215.14 characters</li><li>max: 870 characters</li></ul> | <ul><li>min: 45 characters</li><li>mean: 47.75 characters</li><li>max: 49 characters</li></ul> | * Samples: | anchor | positive | negative_1 | negative_2 | |:---------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------| | <code>census_218acb0f-9f2f-4f76-b90b-15a4b7c7f629_26009</code> | <code>This measurement was conducted with 10x 3' v2. A proliferating lymphocyte cell sample, obtained from a 34-year-old female Asian individual, derived from peripheral blood mononuclear cells.</code> | <code>This measurement was conducted with 10x 3' v2. Sample is a 25-year-old female with European ethnicity, having CD8-positive, alpha-beta T cell type. This cell type exhibits elevated expression of type 1 interferon-stimulated genes (ISGs) in monocytes, reduction of naïve CD4+ T cells correlating with monocyte ISG expression, and expansion of repertoire-restricted cytotoxic GZMH+ CD8+ T cells.</code> | <code>census_218acb0f-9f2f-4f76-b90b-15a4b7c7f629_14165</code> | | <code>census_1b9d8702-5af8-4142-85ed-020eb06ec4f6_6333</code> | <code>This measurement was conducted with 10x 5' v1. Sample is a cell from the omentum tissue, specifically an effector memory CD4-positive, alpha-beta T cell, from a female in her sixth decade.</code> | <code>This measurement was conducted with 10x 5' v2. Conventional dendritic cell from the jejunal epithelium of a female in her eighth decade.</code> | <code>census_1b9d8702-5af8-4142-85ed-020eb06ec4f6_2714</code> | | <code>census_adda0684-f8ea-4403-b393-2a25607077c4_271</code> | <code>This measurement was conducted with 10x 3' v3. Neuron cell type from a 29-year-old male, specifically from the thalamic complex, specifically the thalamus (THM) - posterior nuclear complex of thalamus (PoN) - medial geniculate nuclei (MG).</code> | <code>This measurement was conducted with 10x 3' v3. Neuron from the thalamic complex (thalamus, posterior nuclear complex of thalamus, medial geniculate nuclei) of a 42-year-old male, identified as a midbrain-derived inhibitory neuron.</code> | <code>census_adda0684-f8ea-4403-b393-2a25607077c4_425</code> | * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters: ```json { "scale": 20.0, "similarity_fct": "cos_sim" } ``` #### geo_70k_multiplets_natural_language_annotation * Dataset: [geo_70k_multiplets_natural_language_annotation](https://huggingface.co/datasets/jo-mengr/geo_70k_multiplets_natural_language_annotation) at [4c62cd1](https://huggingface.co/datasets/jo-mengr/geo_70k_multiplets_natural_language_annotation/tree/4c62cd17f88ea4886d7c1707d3e79eb119a56f80) * Size: 61,911 training samples * Columns: <code>anchor</code>, <code>positive</code>, <code>negative_1</code>, and <code>negative_2</code> * Approximate statistics based on the first 1000 samples: | | anchor | positive | negative_1 | negative_2 | |:--------|:---------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------| | type | string | string | string | string | | details | <ul><li>min: 9 characters</li><li>mean: 9.29 characters</li><li>max: 10 characters</li></ul> | <ul><li>min: 83 characters</li><li>mean: 189.5 characters</li><li>max: 698 characters</li></ul> | <ul><li>min: 100 characters</li><li>mean: 165.46 characters</li><li>max: 465 characters</li></ul> | <ul><li>min: 9 characters</li><li>mean: 9.1 characters</li><li>max: 10 characters</li></ul> | * Samples: | anchor | positive | negative_1 | negative_2 | |:-----------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------| | <code>SRX083304</code> | <code>This measurement was conducted with Illumina HiSeq 2000. 5-day HeLa cell line with ELAVL1/HuR siRNA1 knockdown, 120 hours post-transfection.</code> | <code>This measurement was conducted with Illumina HiSeq 2000. BJ fibroblast cells in a proliferative stage, with polyA RNA subtype.</code> | <code>SRX105303</code> | | <code>SRX105302</code> | <code>This measurement was conducted with Illumina HiSeq 2000. BJ fibroblast cells in a proliferative stage, with polyA RNA subtype.</code> | <code>This measurement was conducted with Illumina HiSeq 2000. 5-day HeLa cell line with ELAVL1/HuR siRNA1 knockdown, 120 hours post-transfection.</code> | <code>SRX105303</code> | | <code>SRX105303</code> | <code>This measurement was conducted with Illumina HiSeq 2000. BJ fibroblast cells at a confluent growth stage, with polyA RNA subtype.</code> | <code>This measurement was conducted with Illumina HiSeq 2000. 5-day HeLa cell line with ELAVL1/HuR siRNA1 knockdown, 120 hours post-transfection.</code> | <code>SRX105302</code> | * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters: ```json { "scale": 20.0, "similarity_fct": "cos_sim" } ``` ### Evaluation Datasets #### cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation * Dataset: [cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation](https://huggingface.co/datasets/jo-mengr/cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation) at [b141493](https://huggingface.co/datasets/jo-mengr/cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation/tree/b141493854960a0e33c4583cab3c497379c1f8f0) * Size: 9,011 evaluation samples * Columns: <code>anchor</code>, <code>positive</code>, <code>negative_1</code>, and <code>negative_2</code> * Approximate statistics based on the first 1000 samples: | | anchor | positive | negative_1 | negative_2 | |:--------|:-----------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------| | type | string | string | string | string | | details | <ul><li>min: 45 characters</li><li>mean: 47.73 characters</li><li>max: 49 characters</li></ul> | <ul><li>min: 99 characters</li><li>mean: 209.99 characters</li><li>max: 941 characters</li></ul> | <ul><li>min: 102 characters</li><li>mean: 213.87 characters</li><li>max: 981 characters</li></ul> | <ul><li>min: 45 characters</li><li>mean: 47.73 characters</li><li>max: 49 characters</li></ul> | * Samples: | anchor | positive | negative_1 | negative_2 | |:---------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------| | <code>census_0b4a15a7-4e9e-4555-9733-2423e5c66469_490</code> | <code>This measurement was conducted with 10x 3' v3. Cell sample from the cortex of kidney, taken from a 43-year-old male of European ethnicity with a reported history of kidney cancer. The cell type is identified as a kidney collecting duct intercalated cell.</code> | <code>This measurement was conducted with 10x 3' v3. Kidney collecting duct intercalated cell from a 43-year old European male with kidney cancer, taken from the cortex of kidney and cryopreserved for further analysis.</code> | <code>census_0b4a15a7-4e9e-4555-9733-2423e5c66469_9</code> | | <code>census_4976b234-9028-4b4b-8a2f-8ac59d636219_269</code> | <code>This measurement was conducted with 10x 3' v3. Neuron cell type from a 29-year-old male cerebellum, specifically from the Cerebellar Vermis - CBV region, with European self-reported ethnicity, analyzed at the nucleus level.</code> | <code>This measurement was conducted with 10x 3' v3. Endothelial cells derived from the cerebellum (specifically, cerebellar vermis) of a 42-year-old male, classified under the vascular supercluster term.</code> | <code>census_4976b234-9028-4b4b-8a2f-8ac59d636219_923</code> | | <code>census_44882825-0da1-4547-b721-2c6105d4a9d1_10258</code> | <code>This measurement was conducted with 10x 5' v1. Cell sample from the tonsil of a 9-year-old female with recurrent tonsillitis, characterized as a centroblast B cell with IGLC2, IGLV7-43, IGLJ3 immunoglobulin genes expressed.</code> | <code>This measurement was conducted with 10x 5' v1. Centroblast cells derived from a 3-year-old male human tonsil sample, with obstructive sleep apnea and recurrent tonsillitis, undergoing affinity maturation and differentiation into memory or plasma cells.</code> | <code>census_44882825-0da1-4547-b721-2c6105d4a9d1_9654</code> | * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters: ```json { "scale": 20.0, "similarity_fct": "cos_sim" } ``` #### geo_70k_multiplets_natural_language_annotation * Dataset: [geo_70k_multiplets_natural_language_annotation](https://huggingface.co/datasets/jo-mengr/geo_70k_multiplets_natural_language_annotation) at [4c62cd1](https://huggingface.co/datasets/jo-mengr/geo_70k_multiplets_natural_language_annotation/tree/4c62cd17f88ea4886d7c1707d3e79eb119a56f80) * Size: 6,901 evaluation samples * Columns: <code>anchor</code>, <code>positive</code>, <code>negative_1</code>, and <code>negative_2</code> * Approximate statistics based on the first 1000 samples: | | anchor | positive | negative_1 | negative_2 | |:--------|:----------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------| | type | string | string | string | string | | details | <ul><li>min: 9 characters</li><li>mean: 10.35 characters</li><li>max: 11 characters</li></ul> | <ul><li>min: 78 characters</li><li>mean: 191.46 characters</li><li>max: 983 characters</li></ul> | <ul><li>min: 90 characters</li><li>mean: 217.63 characters</li><li>max: 702 characters</li></ul> | <ul><li>min: 10 characters</li><li>mean: 10.04 characters</li><li>max: 11 characters</li></ul> | * Samples: | anchor | positive | negative_1 | negative_2 | |:------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------| | <code>SRX2244363</code> | <code>This measurement was conducted with Illumina HiSeq 2000. 15-year-old male HepG2 immortalized cell line with hepatocellular carcinoma, transiently expressing shRNA targeting PKM2 for RNA-seq study.</code> | <code>This measurement was conducted with Illumina HiSeq 2000. 15-year-old male patient with hepatocellular carcinoma; HNRNPC knocked down via shRNA in HepG2 (immortalized cell line) for RNA-seq analysis.</code> | <code>SRX5457055</code> | | <code>SRX3136447</code> | <code>This measurement was conducted with Illumina HiSeq 2000. 16-year-old female's T cells from a control group, stimulated with ag85 at timepoint 0, and primary cells.</code> | <code>This measurement was conducted with Illumina HiSeq 2000. 17-year-old male's monocytes stimulated with mTb, taken at 180 days post-stimulation, as part of the control group in a study.</code> | <code>SRX3137689</code> | | <code>SRX2734845</code> | <code>This measurement was conducted with Illumina HiSeq 2500. UM-UC18 bladder cancer cell line, a type of urinary bladder cancer cell line, cultured for study of bladder disease, cancer cell proliferation, and neoplasm.</code> | <code>This measurement was conducted with NextSeq 500. HeLa cells with PARP knockdown treatment.</code> | <code>SRX3130770</code> | * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters: ```json { "scale": 20.0, "similarity_fct": "cos_sim" } ``` ### Training Hyperparameters #### Non-Default Hyperparameters - `eval_strategy`: steps - `per_device_train_batch_size`: 256 - `per_device_eval_batch_size`: 256 - `learning_rate`: 0.05 - `num_train_epochs`: 4 - `warmup_ratio`: 0.1 - `bf16`: True - `gradient_checkpointing`: True #### All Hyperparameters <details><summary>Click to expand</summary> - `overwrite_output_dir`: False - `do_predict`: False - `eval_strategy`: steps - `prediction_loss_only`: True - `per_device_train_batch_size`: 256 - `per_device_eval_batch_size`: 256 - `per_gpu_train_batch_size`: None - `per_gpu_eval_batch_size`: None - `gradient_accumulation_steps`: 1 - `eval_accumulation_steps`: None - `torch_empty_cache_steps`: None - `learning_rate`: 0.05 - `weight_decay`: 0.0 - `adam_beta1`: 0.9 - `adam_beta2`: 0.999 - `adam_epsilon`: 1e-08 - `max_grad_norm`: 1.0 - `num_train_epochs`: 4 - `max_steps`: -1 - `lr_scheduler_type`: linear - `lr_scheduler_kwargs`: {} - `warmup_ratio`: 0.1 - `warmup_steps`: 0 - `log_level`: passive - `log_level_replica`: warning - `log_on_each_node`: True - `logging_nan_inf_filter`: True - `save_safetensors`: True - `save_on_each_node`: False - `save_only_model`: False - `restore_callback_states_from_checkpoint`: False - `no_cuda`: False - `use_cpu`: False - `use_mps_device`: False - `seed`: 42 - `data_seed`: None - `jit_mode_eval`: False - `use_ipex`: False - `bf16`: True - `fp16`: False - `fp16_opt_level`: O1 - `half_precision_backend`: auto - `bf16_full_eval`: False - `fp16_full_eval`: False - `tf32`: None - `local_rank`: 0 - `ddp_backend`: None - `tpu_num_cores`: None - `tpu_metrics_debug`: False - `debug`: [] - `dataloader_drop_last`: False - `dataloader_num_workers`: 0 - `dataloader_prefetch_factor`: None - `past_index`: -1 - `disable_tqdm`: False - `remove_unused_columns`: True - `label_names`: None - `load_best_model_at_end`: False - `ignore_data_skip`: False - `fsdp`: [] - `fsdp_min_num_params`: 0 - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} - `fsdp_transformer_layer_cls_to_wrap`: None - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} - `deepspeed`: None - `label_smoothing_factor`: 0.0 - `optim`: adamw_torch - `optim_args`: None - `adafactor`: False - `group_by_length`: False - `length_column_name`: length - `ddp_find_unused_parameters`: None - `ddp_bucket_cap_mb`: None - `ddp_broadcast_buffers`: False - `dataloader_pin_memory`: True - `dataloader_persistent_workers`: False - `skip_memory_metrics`: True - `use_legacy_prediction_loop`: False - `push_to_hub`: False - `resume_from_checkpoint`: None - `hub_model_id`: None - `hub_strategy`: every_save - `hub_private_repo`: None - `hub_always_push`: False - `hub_revision`: None - `gradient_checkpointing`: True - `gradient_checkpointing_kwargs`: None - `include_inputs_for_metrics`: False - `include_for_metrics`: [] - `eval_do_concat_batches`: True - `fp16_backend`: auto - `push_to_hub_model_id`: None - `push_to_hub_organization`: None - `mp_parameters`: - `auto_find_batch_size`: False - `full_determinism`: False - `torchdynamo`: None - `ray_scope`: last - `ddp_timeout`: 1800 - `torch_compile`: False - `torch_compile_backend`: None - `torch_compile_mode`: None - `include_tokens_per_second`: False - `include_num_input_tokens_seen`: False - `neftune_noise_alpha`: None - `optim_target_modules`: None - `batch_eval_metrics`: False - `eval_on_start`: False - `use_liger_kernel`: False - `liger_kernel_config`: None - `eval_use_gather_object`: False - `average_tokens_across_devices`: False - `prompts`: None - `batch_sampler`: batch_sampler - `multi_dataset_batch_sampler`: proportional - `router_mapping`: {} - `learning_rate_mapping`: {} </details> ### Training Logs | Epoch | Step | Training Loss | cellxgene pseudo bulk 100k multiplets natural language annotation loss | geo 70k multiplets natural language annotation loss | cellxgene_pseudo_bulk_100k_multiplets_natural_language_annotation_cell_sentence_1_cosine_accuracy | geo_70k_multiplets_natural_language_annotation_cell_sentence_1_cosine_accuracy | |:------:|:----:|:-------------:|:----------------------------------------------------------------------:|:---------------------------------------------------:|:-------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------:| | 0.1789 | 100 | 5.4042 | 12.7258 | 18.5172 | 0.5005 | 0.4127 | | 0.3578 | 200 | 4.4018 | 21.3994 | 27.5368 | 0.5012 | 0.4662 | | 0.5367 | 300 | 4.274 | 13.9052 | 15.7111 | 0.5054 | 0.5134 | | 0.7156 | 400 | 3.9977 | 17.2145 | 18.8384 | 0.5060 | 0.6522 | | 0.8945 | 500 | 3.8001 | 18.0511 | 20.1693 | 0.5058 | 0.3982 | | 1.0733 | 600 | 3.7527 | 15.4862 | 20.6695 | 0.5064 | 0.4026 | | 1.2522 | 700 | 3.7414 | 15.5879 | 13.7452 | 0.5089 | 0.3620 | | 1.4311 | 800 | 3.4425 | 14.7486 | 11.9465 | 0.5069 | 0.5199 | | 1.6100 | 900 | 3.3452 | 13.9171 | 14.1143 | 0.5113 | 0.4123 | | 1.7889 | 1000 | 3.2576 | 15.2234 | 12.7155 | 0.5143 | 0.4120 | | 1.9678 | 1100 | 3.322 | 14.6208 | 10.3553 | 0.5262 | 0.4456 | | 2.1467 | 1200 | 3.1823 | 12.7034 | 12.2282 | 0.5236 | 0.5434 | | 2.3256 | 1300 | 3.1449 | 11.2867 | 9.9116 | 0.5292 | 0.6111 | | 2.5045 | 1400 | 3.0859 | 10.7462 | 9.3380 | 0.5349 | 0.6641 | | 2.6834 | 1500 | 3.0582 | 12.2004 | 8.9558 | 0.5298 | 0.6866 | | 2.8623 | 1600 | 2.9614 | 11.8808 | 8.8887 | 0.5317 | 0.6728 | | 3.0411 | 1700 | 3.008 | 12.4199 | 8.4042 | 0.5290 | 0.6911 | | 3.2200 | 1800 | 2.9739 | 10.9099 | 8.9717 | 0.5379 | 0.6656 | | 3.3989 | 1900 | 2.9152 | 11.6201 | 8.5289 | 0.5314 | 0.6954 | | 3.5778 | 2000 | 2.9668 | 11.9039 | 8.4831 | 0.5318 | 0.6860 | | 3.7567 | 2100 | 3.0303 | 11.2059 | 8.9941 | 0.5368 | 0.6696 | | 3.9356 | 2200 | 2.936 | 12.0965 | 7.9045 | 0.5292 | 0.7119 | ### Framework Versions - Python: 3.11.6 - Sentence Transformers: 5.0.0 - Transformers: 4.55.0.dev0 - PyTorch: 2.5.1+cu121 - Accelerate: 1.9.0 - Datasets: 2.19.1 - Tokenizers: 0.21.4 ## Citation ### BibTeX #### Sentence Transformers ```bibtex @inproceedings{reimers-2019-sentence-bert, title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", author = "Reimers, Nils and Gurevych, Iryna", booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", month = "11", year = "2019", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/1908.10084", } ``` #### MultipleNegativesRankingLoss ```bibtex @misc{henderson2017efficient, title={Efficient Natural Language Response Suggestion for Smart Reply}, author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil}, year={2017}, eprint={1705.00652}, archivePrefix={arXiv}, primaryClass={cs.CL} } ``` <!-- ## Glossary *Clearly define terms in order to be accessible across audiences.* --> <!-- ## Model Card Authors *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* --> <!-- ## Model Card Contact *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* -->
choidj/FGA-SR
choidj
2025-08-20T07:26:36Z
0
0
null
[ "license:apache-2.0", "region:us" ]
null
2025-08-20T07:15:26Z
--- license: apache-2.0 ---
JonusNattapong/thai-bpe-tokenizer
JonusNattapong
2025-08-20T07:24:56Z
0
0
transformers
[ "transformers", "arxiv:1910.09700", "endpoints_compatible", "region:us" ]
null
2025-08-20T07:24:55Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
roeker/blockassist-bc-quick_wiry_owl_1755674427
roeker
2025-08-20T07:21:57Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "quick wiry owl", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:21:08Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - quick wiry owl --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
launchpd3/blockassist-bc-polished_foxy_stingray_1755674367
launchpd3
2025-08-20T07:21:15Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "polished foxy stingray", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:21:06Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - polished foxy stingray --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
rettertop/blockassist-bc-lithe_hulking_wasp_1755674345
rettertop
2025-08-20T07:19:15Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "lithe hulking wasp", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:19:06Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - lithe hulking wasp --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
cixzer/blockassist-bc-gregarious_long_cheetah_1755672908
cixzer
2025-08-20T07:19:12Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "gregarious long cheetah", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:18:38Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - gregarious long cheetah --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
lisaozill03/blockassist-bc-rugged_prickly_alpaca_1755672736
lisaozill03
2025-08-20T07:18:10Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "rugged prickly alpaca", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:18:06Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - rugged prickly alpaca --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
rettertop/blockassist-bc-small_vigilant_wildebeest_1755674262
rettertop
2025-08-20T07:17:49Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "small vigilant wildebeest", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:17:42Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - small vigilant wildebeest --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
gaianet/Qwen3-Coder-30B-A3B-Instruct-GGUF
gaianet
2025-08-20T07:17:35Z
0
0
transformers
[ "transformers", "gguf", "qwen3_moe", "text-generation", "base_model:Qwen/Qwen3-Coder-30B-A3B-Instruct", "base_model:quantized:Qwen/Qwen3-Coder-30B-A3B-Instruct", "license:apache-2.0", "autotrain_compatible", "endpoints_compatible", "region:us", "conversational" ]
text-generation
2025-08-20T02:43:35Z
--- base_model: Qwen/Qwen3-Coder-30B-A3B-Instruct license: apache-2.0 license_link: https://huggingface.co/Qwen/Qwen3-Coder-30B-A3B-Instruct/blob/main/LICENSE model_creator: Qwen model_name: Qwen3-Coder-30B-A3B-Instruct quantized_by: Second State Inc. pipeline_tag: text-generation library_name: transformers --- # Qwen3-Coder-30B-A3B-Instruct-GGUF ## Original Model [Qwen/Qwen3-Coder-30B-A3B-Instruct](https://huggingface.co/Qwen/Qwen3-Coder-30B-A3B-Instruct) ## Run with Gaianet **Prompt template** prompt template: - `chatml` **Context size** chat_ctx_size: `256000` **Run with GaiaNet** - Quick start: https://docs.gaianet.ai/node-guide/quick-start - Customize your node: https://docs.gaianet.ai/node-guide/customize *Quantized with llama.cpp b6031*
Kokoutou/soundsright_dn_2008_3
Kokoutou
2025-08-20T07:16:49Z
0
0
null
[ "region:us" ]
null
2025-08-20T07:02:41Z
# Container Template for SoundsRight Subnet Miners This repository contains a contanierized version of [SGMSE+](https://huggingface.co/sp-uhh/speech-enhancement-sgmse) and serves as a tutorial for miners to format their models on [Bittensor's](https://bittensor.com/) [SoundsRight Subnet](https://github.com/synapsec-ai/SoundsRightSubnet). The branches `DENOISING_16000HZ` and `DEREVERBERATION_16000HZ` contain SGMSE fitted with the approrpriate checkpoints for denoising and dereverberation tasks at 16kHz, respectively. This container has only been tested with **Ubuntu 24.04** and **CUDA 12.6**. It may run on other configurations, but it is not guaranteed. To run the container, first configure NVIDIA Container Toolkit and generate a CDI specification. Follow the instructions to download the [NVIDIA Container Toolkit](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html) with Apt. Next, follow the instructions for [generating a CDI specification](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/cdi-support.html). Verify that the CDI specification was done correctly with: ``` $ nvidia-ctk cdi list ``` You should see this in your output: ``` nvidia.com/gpu=all nvidia.com/gpu=0 ``` If you are running podman as root, run the following command to start the container: Run the container with: ``` podman build -t modelapi . && podman run -d --device nvidia.com/gpu=all --user root --name modelapi -p 6500:6500 modelapi ``` Access logs with: ``` podman logs -f modelapi ``` If you are running the container rootless, there are a few more changes to make: First, modify `/etc/nvidia-container-runtime/config.toml` and set the following parameters: ``` [nvidia-container-cli] no-cgroups = true [nvidia-container-runtime] debug = "/tmp/nvidia-container-runtime.log" ``` You can also run the following command to achieve the same result: ``` $ sudo nvidia-ctk config --set nvidia-container-cli.no-cgroups --in-place ``` Run the container with: ``` podman build -t modelapi . && podman run -d --device nvidia.com/gpu=all --volume /usr/local/cuda-12.6:/usr/local/cuda-12.6 --user 10002:10002 --name modelapi -p 6500:6500 modelapi ``` Access logs with: ``` podman logs -f modelapi ``` Running the container will spin up an API with the following endpoints: 1. `/status/` : Communicates API status 2. `/prepare/` : Download model checkpoint and initialize model 3. `/upload-audio/` : Upload audio files, save to noisy audio directory 4. `/enhance/` : Initialize model, enhance audio files, save to enhanced audio directory 5. `/download-enhanced/` : Download enhanced audio files By default the API will use host `0.0.0.0` and port `6500`. ### References 1. **Welker, Simon; Richter, Julius; Gerkmann, Timo** *Speech Enhancement with Score-Based Generative Models in the Complex STFT Domain*. Proceedings of *Interspeech 2022*, 2022, pp. 2928–2932. [DOI: 10.21437/Interspeech.2022-10653](https://doi.org/10.21437/Interspeech.2022-10653) 2. **Richter, Julius; Welker, Simon; Lemercier, Jean-Marie; Lay, Bunlong; Gerkmann, Timo** *Speech Enhancement and Dereverberation with Diffusion-based Generative Models*. *IEEE/ACM Transactions on Audio, Speech, and Language Processing*, Vol. 31, 2023, pp. 2351–2364. [DOI: 10.1109/TASLP.2023.3285241](https://doi.org/10.1109/TASLP.2023.3285241) 3. **Richter, Julius; Wu, Yi-Chiao; Krenn, Steven; Welker, Simon; Lay, Bunlong; Watanabe, Shinjii; Richard, Alexander; Gerkmann, Timo** *EARS: An Anechoic Fullband Speech Dataset Benchmarked for Speech Enhancement and Dereverberation*. Proceedings of *ISCA Interspeech*, 2024, pp. 4873–4877.
Kokoutou/soundsright_dn_2008_1
Kokoutou
2025-08-20T07:16:35Z
0
0
null
[ "region:us" ]
null
2025-08-20T07:02:41Z
# Container Template for SoundsRight Subnet Miners This repository contains a contanierized version of [SGMSE+](https://huggingface.co/sp-uhh/speech-enhancement-sgmse) and serves as a tutorial for miners to format their models on [Bittensor's](https://bittensor.com/) [SoundsRight Subnet](https://github.com/synapsec-ai/SoundsRightSubnet). The branches `DENOISING_16000HZ` and `DEREVERBERATION_16000HZ` contain SGMSE fitted with the approrpriate checkpoints for denoising and dereverberation tasks at 16kHz, respectively. This container has only been tested with **Ubuntu 24.04** and **CUDA 12.6**. It may run on other configurations, but it is not guaranteed. To run the container, first configure NVIDIA Container Toolkit and generate a CDI specification. Follow the instructions to download the [NVIDIA Container Toolkit](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html) with Apt. Next, follow the instructions for [generating a CDI specification](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/cdi-support.html). Verify that the CDI specification was done correctly with: ``` $ nvidia-ctk cdi list ``` You should see this in your output: ``` nvidia.com/gpu=all nvidia.com/gpu=0 ``` If you are running podman as root, run the following command to start the container: Run the container with: ``` podman build -t modelapi . && podman run -d --device nvidia.com/gpu=all --user root --name modelapi -p 6500:6500 modelapi ``` Access logs with: ``` podman logs -f modelapi ``` If you are running the container rootless, there are a few more changes to make: First, modify `/etc/nvidia-container-runtime/config.toml` and set the following parameters: ``` [nvidia-container-cli] no-cgroups = true [nvidia-container-runtime] debug = "/tmp/nvidia-container-runtime.log" ``` You can also run the following command to achieve the same result: ``` $ sudo nvidia-ctk config --set nvidia-container-cli.no-cgroups --in-place ``` Run the container with: ``` podman build -t modelapi . && podman run -d --device nvidia.com/gpu=all --volume /usr/local/cuda-12.6:/usr/local/cuda-12.6 --user 10002:10002 --name modelapi -p 6500:6500 modelapi ``` Access logs with: ``` podman logs -f modelapi ``` Running the container will spin up an API with the following endpoints: 1. `/status/` : Communicates API status 2. `/prepare/` : Download model checkpoint and initialize model 3. `/upload-audio/` : Upload audio files, save to noisy audio directory 4. `/enhance/` : Initialize model, enhance audio files, save to enhanced audio directory 5. `/download-enhanced/` : Download enhanced audio files By default the API will use host `0.0.0.0` and port `6500`. ### References 1. **Welker, Simon; Richter, Julius; Gerkmann, Timo** *Speech Enhancement with Score-Based Generative Models in the Complex STFT Domain*. Proceedings of *Interspeech 2022*, 2022, pp. 2928–2932. [DOI: 10.21437/Interspeech.2022-10653](https://doi.org/10.21437/Interspeech.2022-10653) 2. **Richter, Julius; Welker, Simon; Lemercier, Jean-Marie; Lay, Bunlong; Gerkmann, Timo** *Speech Enhancement and Dereverberation with Diffusion-based Generative Models*. *IEEE/ACM Transactions on Audio, Speech, and Language Processing*, Vol. 31, 2023, pp. 2351–2364. [DOI: 10.1109/TASLP.2023.3285241](https://doi.org/10.1109/TASLP.2023.3285241) 3. **Richter, Julius; Wu, Yi-Chiao; Krenn, Steven; Welker, Simon; Lay, Bunlong; Watanabe, Shinjii; Richard, Alexander; Gerkmann, Timo** *EARS: An Anechoic Fullband Speech Dataset Benchmarked for Speech Enhancement and Dereverberation*. Proceedings of *ISCA Interspeech*, 2024, pp. 4873–4877.
rettertop/blockassist-bc-mimic_peckish_cockroach_1755674177
rettertop
2025-08-20T07:16:25Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "mimic peckish cockroach", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:16:17Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - mimic peckish cockroach --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
roeker/blockassist-bc-quick_wiry_owl_1755674071
roeker
2025-08-20T07:15:51Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "quick wiry owl", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:15:11Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - quick wiry owl --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
rettertop/blockassist-bc-dappled_purring_bobcat_1755674092
rettertop
2025-08-20T07:15:01Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "dappled purring bobcat", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:14:52Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - dappled purring bobcat --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
koloni/blockassist-bc-deadly_graceful_stingray_1755672388
koloni
2025-08-20T07:14:19Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "deadly graceful stingray", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:14:14Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - deadly graceful stingray --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
rettertop/blockassist-bc-roaring_flightless_ibis_1755674048
rettertop
2025-08-20T07:14:18Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "roaring flightless ibis", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:14:08Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - roaring flightless ibis --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
mikasenghaas/Qwen3-30B-A3B-SFT-Math-Code-1M-300
mikasenghaas
2025-08-20T07:13:32Z
0
0
transformers
[ "transformers", "pytorch", "qwen3_moe", "text-generation", "conversational", "arxiv:2309.00071", "arxiv:2505.09388", "base_model:Qwen/Qwen3-30B-A3B-Base", "base_model:finetune:Qwen/Qwen3-30B-A3B-Base", "license:apache-2.0", "autotrain_compatible", "endpoints_compatible", "region:us" ]
text-generation
2025-08-20T07:07:02Z
--- library_name: transformers license: apache-2.0 license_link: https://huggingface.co/Qwen/Qwen3-30B-A3B/blob/main/LICENSE pipeline_tag: text-generation base_model: - Qwen/Qwen3-30B-A3B-Base --- # Qwen3-30B-A3B <a href="https://chat.qwen.ai/" target="_blank" style="margin: 2px;"> <img alt="Chat" src="https://img.shields.io/badge/%F0%9F%92%9C%EF%B8%8F%20Qwen%20Chat%20-536af5" style="display: inline-block; vertical-align: middle;"/> </a> ## Qwen3 Highlights Qwen3 is the latest generation of large language models in Qwen series, offering a comprehensive suite of dense and mixture-of-experts (MoE) models. Built upon extensive training, Qwen3 delivers groundbreaking advancements in reasoning, instruction-following, agent capabilities, and multilingual support, with the following key features: - **Uniquely support of seamless switching between thinking mode** (for complex logical reasoning, math, and coding) and **non-thinking mode** (for efficient, general-purpose dialogue) **within single model**, ensuring optimal performance across various scenarios. - **Significantly enhancement in its reasoning capabilities**, surpassing previous QwQ (in thinking mode) and Qwen2.5 instruct models (in non-thinking mode) on mathematics, code generation, and commonsense logical reasoning. - **Superior human preference alignment**, excelling in creative writing, role-playing, multi-turn dialogues, and instruction following, to deliver a more natural, engaging, and immersive conversational experience. - **Expertise in agent capabilities**, enabling precise integration with external tools in both thinking and unthinking modes and achieving leading performance among open-source models in complex agent-based tasks. - **Support of 100+ languages and dialects** with strong capabilities for **multilingual instruction following** and **translation**. ## Model Overview **Qwen3-30B-A3B** has the following features: - Type: Causal Language Models - Training Stage: Pretraining & Post-training - Number of Parameters: 30.5B in total and 3.3B activated - Number of Paramaters (Non-Embedding): 29.9B - Number of Layers: 48 - Number of Attention Heads (GQA): 32 for Q and 4 for KV - Number of Experts: 128 - Number of Activated Experts: 8 - Context Length: 32,768 natively and [131,072 tokens with YaRN](#processing-long-texts). For more details, including benchmark evaluation, hardware requirements, and inference performance, please refer to our [blog](https://qwenlm.github.io/blog/qwen3/), [GitHub](https://github.com/QwenLM/Qwen3), and [Documentation](https://qwen.readthedocs.io/en/latest/). ## Quickstart The code of Qwen3-MoE has been in the latest Hugging Face `transformers` and we advise you to use the latest version of `transformers`. With `transformers<4.51.0`, you will encounter the following error: ``` KeyError: 'qwen3_moe' ``` The following contains a code snippet illustrating how to use the model generate content based on given inputs. ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/Qwen3-30B-A3B" # load the tokenizer and the model tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype="auto", device_map="auto" ) # prepare the model input prompt = "Give me a short introduction to large language model." messages = [ {"role": "user", "content": prompt} ] text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True, enable_thinking=True # Switches between thinking and non-thinking modes. Default is True. ) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) # conduct text completion generated_ids = model.generate( **model_inputs, max_new_tokens=32768 ) output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist() # parsing thinking content try: # rindex finding 151668 (</think>) index = len(output_ids) - output_ids[::-1].index(151668) except ValueError: index = 0 thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n") content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n") print("thinking content:", thinking_content) print("content:", content) ``` For deployment, you can use `sglang>=0.4.6.post1` or `vllm>=0.8.5` or to create an OpenAI-compatible API endpoint: - SGLang: ```shell python -m sglang.launch_server --model-path Qwen/Qwen3-30B-A3B --reasoning-parser qwen3 ``` - vLLM: ```shell vllm serve Qwen/Qwen3-30B-A3B --enable-reasoning --reasoning-parser deepseek_r1 ``` For local use, applications such as Ollama, LMStudio, MLX-LM, llama.cpp, and KTransformers have also supported Qwen3. ## Switching Between Thinking and Non-Thinking Mode > [!TIP] > The `enable_thinking` switch is also available in APIs created by SGLang and vLLM. > Please refer to our documentation for [SGLang](https://qwen.readthedocs.io/en/latest/deployment/sglang.html#thinking-non-thinking-modes) and [vLLM](https://qwen.readthedocs.io/en/latest/deployment/vllm.html#thinking-non-thinking-modes) users. ### `enable_thinking=True` By default, Qwen3 has thinking capabilities enabled, similar to QwQ-32B. This means the model will use its reasoning abilities to enhance the quality of generated responses. For example, when explicitly setting `enable_thinking=True` or leaving it as the default value in `tokenizer.apply_chat_template`, the model will engage its thinking mode. ```python text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True, enable_thinking=True # True is the default value for enable_thinking ) ``` In this mode, the model will generate think content wrapped in a `<think>...</think>` block, followed by the final response. > [!NOTE] > For thinking mode, use `Temperature=0.6`, `TopP=0.95`, `TopK=20`, and `MinP=0` (the default setting in `generation_config.json`). **DO NOT use greedy decoding**, as it can lead to performance degradation and endless repetitions. For more detailed guidance, please refer to the [Best Practices](#best-practices) section. ### `enable_thinking=False` We provide a hard switch to strictly disable the model's thinking behavior, aligning its functionality with the previous Qwen2.5-Instruct models. This mode is particularly useful in scenarios where disabling thinking is essential for enhancing efficiency. ```python text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True, enable_thinking=False # Setting enable_thinking=False disables thinking mode ) ``` In this mode, the model will not generate any think content and will not include a `<think>...</think>` block. > [!NOTE] > For non-thinking mode, we suggest using `Temperature=0.7`, `TopP=0.8`, `TopK=20`, and `MinP=0`. For more detailed guidance, please refer to the [Best Practices](#best-practices) section. ### Advanced Usage: Switching Between Thinking and Non-Thinking Modes via User Input We provide a soft switch mechanism that allows users to dynamically control the model's behavior when `enable_thinking=True`. Specifically, you can add `/think` and `/no_think` to user prompts or system messages to switch the model's thinking mode from turn to turn. The model will follow the most recent instruction in multi-turn conversations. Here is an example of a multi-turn conversation: ```python from transformers import AutoModelForCausalLM, AutoTokenizer class QwenChatbot: def __init__(self, model_name="Qwen/Qwen3-30B-A3B"): self.tokenizer = AutoTokenizer.from_pretrained(model_name) self.model = AutoModelForCausalLM.from_pretrained(model_name) self.history = [] def generate_response(self, user_input): messages = self.history + [{"role": "user", "content": user_input}] text = self.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) inputs = self.tokenizer(text, return_tensors="pt") response_ids = self.model.generate(**inputs, max_new_tokens=32768)[0][len(inputs.input_ids[0]):].tolist() response = self.tokenizer.decode(response_ids, skip_special_tokens=True) # Update history self.history.append({"role": "user", "content": user_input}) self.history.append({"role": "assistant", "content": response}) return response # Example Usage if __name__ == "__main__": chatbot = QwenChatbot() # First input (without /think or /no_think tags, thinking mode is enabled by default) user_input_1 = "How many r's in strawberries?" print(f"User: {user_input_1}") response_1 = chatbot.generate_response(user_input_1) print(f"Bot: {response_1}") print("----------------------") # Second input with /no_think user_input_2 = "Then, how many r's in blueberries? /no_think" print(f"User: {user_input_2}") response_2 = chatbot.generate_response(user_input_2) print(f"Bot: {response_2}") print("----------------------") # Third input with /think user_input_3 = "Really? /think" print(f"User: {user_input_3}") response_3 = chatbot.generate_response(user_input_3) print(f"Bot: {response_3}") ``` > [!NOTE] > For API compatibility, when `enable_thinking=True`, regardless of whether the user uses `/think` or `/no_think`, the model will always output a block wrapped in `<think>...</think>`. However, the content inside this block may be empty if thinking is disabled. > When `enable_thinking=False`, the soft switches are not valid. Regardless of any `/think` or `/no_think` tags input by the user, the model will not generate think content and will not include a `<think>...</think>` block. ## Agentic Use Qwen3 excels in tool calling capabilities. We recommend using [Qwen-Agent](https://github.com/QwenLM/Qwen-Agent) to make the best use of agentic ability of Qwen3. Qwen-Agent encapsulates tool-calling templates and tool-calling parsers internally, greatly reducing coding complexity. To define the available tools, you can use the MCP configuration file, use the integrated tool of Qwen-Agent, or integrate other tools by yourself. ```python from qwen_agent.agents import Assistant # Define LLM llm_cfg = { 'model': 'Qwen3-30B-A3B', # Use the endpoint provided by Alibaba Model Studio: # 'model_type': 'qwen_dashscope', # 'api_key': os.getenv('DASHSCOPE_API_KEY'), # Use a custom endpoint compatible with OpenAI API: 'model_server': 'http://localhost:8000/v1', # api_base 'api_key': 'EMPTY', # Other parameters: # 'generate_cfg': { # # Add: When the response content is `<think>this is the thought</think>this is the answer; # # Do not add: When the response has been separated by reasoning_content and content. # 'thought_in_content': True, # }, } # Define Tools tools = [ {'mcpServers': { # You can specify the MCP configuration file 'time': { 'command': 'uvx', 'args': ['mcp-server-time', '--local-timezone=Asia/Shanghai'] }, "fetch": { "command": "uvx", "args": ["mcp-server-fetch"] } } }, 'code_interpreter', # Built-in tools ] # Define Agent bot = Assistant(llm=llm_cfg, function_list=tools) # Streaming generation messages = [{'role': 'user', 'content': 'https://qwenlm.github.io/blog/ Introduce the latest developments of Qwen'}] for responses in bot.run(messages=messages): pass print(responses) ``` ## Processing Long Texts Qwen3 natively supports context lengths of up to 32,768 tokens. For conversations where the total length (including both input and output) significantly exceeds this limit, we recommend using RoPE scaling techniques to handle long texts effectively. We have validated the model's performance on context lengths of up to 131,072 tokens using the [YaRN](https://arxiv.org/abs/2309.00071) method. YaRN is currently supported by several inference frameworks, e.g., `transformers` and `llama.cpp` for local use, `vllm` and `sglang` for deployment. In general, there are two approaches to enabling YaRN for supported frameworks: - Modifying the model files: In the `config.json` file, add the `rope_scaling` fields: ```json { ..., "rope_scaling": { "rope_type": "yarn", "factor": 4.0, "original_max_position_embeddings": 32768 } } ``` For `llama.cpp`, you need to regenerate the GGUF file after the modification. - Passing command line arguments: For `vllm`, you can use ```shell vllm serve ... --rope-scaling '{"rope_type":"yarn","factor":4.0,"original_max_position_embeddings":32768}' --max-model-len 131072 ``` For `sglang`, you can use ```shell python -m sglang.launch_server ... --json-model-override-args '{"rope_scaling":{"rope_type":"yarn","factor":4.0,"original_max_position_embeddings":32768}}' ``` For `llama-server` from `llama.cpp`, you can use ```shell llama-server ... --rope-scaling yarn --rope-scale 4 --yarn-orig-ctx 32768 ``` > [!IMPORTANT] > If you encounter the following warning > ``` > Unrecognized keys in `rope_scaling` for 'rope_type'='yarn': {'original_max_position_embeddings'} > ``` > please upgrade `transformers>=4.51.0`. > [!NOTE] > All the notable open-source frameworks implement static YaRN, which means the scaling factor remains constant regardless of input length, **potentially impacting performance on shorter texts.** > We advise adding the `rope_scaling` configuration only when processing long contexts is required. > It is also recommended to modify the `factor` as needed. For example, if the typical context length for your application is 65,536 tokens, it would be better to set `factor` as 2.0. > [!NOTE] > The default `max_position_embeddings` in `config.json` is set to 40,960. This allocation includes reserving 32,768 tokens for outputs and 8,192 tokens for typical prompts, which is sufficient for most scenarios involving short text processing. If the average context length does not exceed 32,768 tokens, we do not recommend enabling YaRN in this scenario, as it may potentially degrade model performance. > [!TIP] > The endpoint provided by Alibaba Model Studio supports dynamic YaRN by default and no extra configuration is needed. ## Best Practices To achieve optimal performance, we recommend the following settings: 1. **Sampling Parameters**: - For thinking mode (`enable_thinking=True`), use `Temperature=0.6`, `TopP=0.95`, `TopK=20`, and `MinP=0`. **DO NOT use greedy decoding**, as it can lead to performance degradation and endless repetitions. - For non-thinking mode (`enable_thinking=False`), we suggest using `Temperature=0.7`, `TopP=0.8`, `TopK=20`, and `MinP=0`. - For supported frameworks, you can adjust the `presence_penalty` parameter between 0 and 2 to reduce endless repetitions. However, using a higher value may occasionally result in language mixing and a slight decrease in model performance. 2. **Adequate Output Length**: We recommend using an output length of 32,768 tokens for most queries. For benchmarking on highly complex problems, such as those found in math and programming competitions, we suggest setting the max output length to 38,912 tokens. This provides the model with sufficient space to generate detailed and comprehensive responses, thereby enhancing its overall performance. 3. **Standardize Output Format**: We recommend using prompts to standardize model outputs when benchmarking. - **Math Problems**: Include "Please reason step by step, and put your final answer within \boxed{}." in the prompt. - **Multiple-Choice Questions**: Add the following JSON structure to the prompt to standardize responses: "Please show your choice in the `answer` field with only the choice letter, e.g., `"answer": "C"`." 4. **No Thinking Content in History**: In multi-turn conversations, the historical model output should only include the final output part and does not need to include the thinking content. It is implemented in the provided chat template in Jinja2. However, for frameworks that do not directly use the Jinja2 chat template, it is up to the developers to ensure that the best practice is followed. ### Citation If you find our work helpful, feel free to give us a cite. ``` @misc{qwen3technicalreport, title={Qwen3 Technical Report}, author={Qwen Team}, year={2025}, eprint={2505.09388}, archivePrefix={arXiv}, primaryClass={cs.CL}, url={https://arxiv.org/abs/2505.09388}, } ```
DW-ReCo/spot_gpt-oss-20b-unsloth_ep5_training_ds_v18_120fix_75k_param-7_prompt-v2_lora
DW-ReCo
2025-08-20T07:11:57Z
0
0
transformers
[ "transformers", "safetensors", "text-generation-inference", "unsloth", "gpt_oss", "trl", "en", "base_model:unsloth/gpt-oss-20b-unsloth-bnb-4bit", "base_model:finetune:unsloth/gpt-oss-20b-unsloth-bnb-4bit", "license:apache-2.0", "endpoints_compatible", "region:us" ]
null
2025-08-20T07:11:49Z
--- base_model: unsloth/gpt-oss-20b-unsloth-bnb-4bit tags: - text-generation-inference - transformers - unsloth - gpt_oss - trl license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** DW-ReCo - **License:** apache-2.0 - **Finetuned from model :** unsloth/gpt-oss-20b-unsloth-bnb-4bit This gpt_oss model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
ohjoonhee/Qwen2.5-VL-3B-InitialRun-checkpoint-1300
ohjoonhee
2025-08-20T07:11:49Z
0
0
transformers
[ "transformers", "safetensors", "qwen2_5_vl", "image-to-text", "arxiv:1910.09700", "text-generation-inference", "endpoints_compatible", "region:us" ]
image-to-text
2025-08-20T07:05:11Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
BoSS-21/trained-flux-lora
BoSS-21
2025-08-20T07:11:23Z
0
0
diffusers
[ "diffusers", "text-to-image", "diffusers-training", "lora", "flux", "flux-diffusers", "template:sd-lora", "base_model:black-forest-labs/FLUX.1-dev", "base_model:adapter:black-forest-labs/FLUX.1-dev", "license:other", "region:us" ]
text-to-image
2025-08-20T06:07:16Z
--- base_model: black-forest-labs/FLUX.1-dev library_name: diffusers license: other instance_prompt: a photo of sks dog widget: - text: A photo of sks dog in a bucket output: url: image_0.png - text: A photo of sks dog in a bucket output: url: image_1.png - text: A photo of sks dog in a bucket output: url: image_2.png - text: A photo of sks dog in a bucket output: url: image_3.png tags: - text-to-image - diffusers-training - diffusers - lora - flux - flux-diffusers - template:sd-lora --- <!-- This model card has been generated automatically according to the information the training script had access to. You should probably proofread and complete it, then remove this comment. --> # Flux DreamBooth LoRA - BoSS-21/trained-flux-lora <Gallery /> ## Model description These are BoSS-21/trained-flux-lora DreamBooth LoRA weights for black-forest-labs/FLUX.1-dev. The weights were trained using [DreamBooth](https://dreambooth.github.io/) with the [Flux diffusers trainer](https://github.com/huggingface/diffusers/blob/main/examples/dreambooth/README_flux.md). Was LoRA for the text encoder enabled? False. ## Trigger words You should use `a photo of sks dog` to trigger the image generation. ## Download model [Download the *.safetensors LoRA](BoSS-21/trained-flux-lora/tree/main) in the Files & versions tab. ## Use it with the [🧨 diffusers library](https://github.com/huggingface/diffusers) ```py from diffusers import AutoPipelineForText2Image import torch pipeline = AutoPipelineForText2Image.from_pretrained("black-forest-labs/FLUX.1-dev", torch_dtype=torch.bfloat16).to('cuda') pipeline.load_lora_weights('BoSS-21/trained-flux-lora', weight_name='pytorch_lora_weights.safetensors') image = pipeline('A photo of sks dog in a bucket').images[0] ``` For more details, including weighting, merging and fusing LoRAs, check the [documentation on loading LoRAs in diffusers](https://huggingface.co/docs/diffusers/main/en/using-diffusers/loading_adapters) ## License Please adhere to the licensing terms as described [here](https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md). ## Intended uses & limitations #### How to use ```python # TODO: add an example code snippet for running this diffusion pipeline ``` #### Limitations and bias [TODO: provide examples of latent issues and potential remediations] ## Training details [TODO: describe the data used to train the model]
calegpedia/blockassist-bc-stealthy_slimy_rooster_1755672253
calegpedia
2025-08-20T07:10:26Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "stealthy slimy rooster", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:10:22Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - stealthy slimy rooster --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
roeker/blockassist-bc-quick_wiry_owl_1755673666
roeker
2025-08-20T07:10:12Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "quick wiry owl", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:08:29Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - quick wiry owl --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
AXERA-TECH/Qwen2.5-1.5B-Instruct
AXERA-TECH
2025-08-20T07:09:38Z
37
0
transformers
[ "transformers", "Context", "Qwen2.5-1.5B-Instruct-GPTQ-INT8", "Qwen2.5-1.5B-Instruct-GPTQ-INT4", "text-generation", "zh", "en", "license:mit", "endpoints_compatible", "region:us" ]
text-generation
2025-04-01T10:17:13Z
--- license: mit language: - zh - en base_model: - Qwen/Qwen2.5-1.5B-Instruct-GPTQ-INT8 - Qwen/Qwen2.5-1.5B-Instruct-GPTQ-INT4 pipeline_tag: text-generation library_name: transformers tags: - Context - Qwen2.5-1.5B-Instruct-GPTQ-INT8 - Qwen2.5-1.5B-Instruct-GPTQ-INT4 --- # Qwen2.5-1.5B-Instruct This version of Qwen2.5-1.5B-Instruct has been converted to run on the Axera NPU using **w8a16** and **w4a16** quantization. This model has been optimized with the following LoRA: Compatible with Pulsar2 version: 4.1 ## Feature - Support for longer contexts, in this sample it's 2.5k - Support context dialogue - System prompt kvcache is supported ## Convert tools links: For those who are interested in model conversion, you can try to export axmodel through the original repo : https://huggingface.co/Qwen/Qwen2.5-1.5B-Instruct-GPTQ-Int8 [Pulsar2 Link, How to Convert LLM from Huggingface to axmodel](https://pulsar2-docs.readthedocs.io/en/latest/appendix/build_llm.html) [AXera NPU AXEngine LLM Runtime](https://github.com/AXERA-TECH/ax-llm/tree/ax-context) [AXera NPU AXCL LLM Runtime](https://github.com/AXERA-TECH/ax-llm/tree/axcl-context) ### Convert script The follow show how to convert Qwen2.5-1.5B-Instruct-GPTQ-Int8 ``` pulsar2 llm_build --input_path Qwen/Qwen2.5-1.5B-Instruct-GPTQ-Int8 \ --output_path Qwen/Qwen2.5-1.5B-Instruct-GPTQ-Int8-ctx-ax650 \ --hidden_state_type bf16 --kv_cache_len 2047 --prefill_len 128 \ --last_kv_cache_len 128 \ --last_kv_cache_len 256 \ --last_kv_cache_len 384 \ --last_kv_cache_len 512 \ --last_kv_cache_len 640 \ --last_kv_cache_len 768 \ --last_kv_cache_len 896 \ --last_kv_cache_len 1024 \ --chip AX650 -c 1 --parallel 8 ``` ## Support Platform - AX650 - AX650N DEMO Board - [M4N-Dock(爱芯派Pro)](https://wiki.sipeed.com/hardware/zh/maixIV/m4ndock/m4ndock.html) - [M.2 Accelerator card](https://axcl-docs.readthedocs.io/zh-cn/latest/doc_guide_hardware.html) - AX630C - *TBD* |Chips|w8a16|w4a16| DDR | Flash | |--|--|--|--|--| |AX650| 12 tokens/sec| 17 tokens/sec | 2.3GB | 2.3GB | ## How to use Download all files from this repository to the device ``` root@ax650:/mnt/qtang/llm-test/Qwen2.5-1.5B-Instruct# tree -L 1 . ├── main_api ├── main_ax650 ├── main_axcl_aarch64 ├── main_axcl_x86 ├── post_config.json ├── qwen2.5-1.5b-ctx-ax650 ├── qwen2.5-1.5b-ctx-int4-ax650 ├── qwen2.5_tokenizer ├── qwen2.5_tokenizer_uid.py ├── run_qwen2.5_1.5b_ctx_ax650_api.sh ├── run_qwen2.5_1.5b_ctx_ax650.sh ├── run_qwen2.5_1.5b_ctx_axcl_aarch64.sh ├── run_qwen2.5_1.5b_ctx_axcl_x86.sh └── run_qwen2.5_1.5b_ctx_int4_ax650.sh ``` #### Start the Tokenizer service ``` root@ax650:/mnt/qtang/llm-test/Qwen2.5-1.5B-Instruct# python qwen2.5_tokenizer_uid.py Server running at http://0.0.0.0:12345 ``` #### System prompt cache - The System prompt can be preset through the configuration file from `--system_prompt` - The System prompt can be cached in the form of kv cache to a specified folder for quick loading at the next run time from `--kvcache_path` - This folder needs to be created manually before running, for example `mkdir kvcache` ``` root@ax650:/mnt/qtang/llm-test/qwen2.5-1.5b-ctx# cat run_qwen2.5_1.5b_ctx_ax650.sh ./main_ax650 \ --template_filename_axmodel "qwen2.5-1.5b-ctx-ax650/qwen2_p128_l%d_together.axmodel" \ --axmodel_num 28 \ --tokenizer_type 2 \ --url_tokenizer_model "http://0.0.0.0:12345" \ --filename_post_axmodel "qwen2.5-1.5b-ctx-ax650/qwen2_post.axmodel" \ --filename_tokens_embed "qwen2.5-1.5b-ctx-ax650/model.embed_tokens.weight.bfloat16.bin" \ --tokens_embed_num 151936 \ --tokens_embed_size 1536 \ --use_mmap_load_embed 1 \ --live_print 1 #--system_prompt "你的名字叫小智(allen),你是一个人畜无害的AI助手。深圳市今天(4月1日)阴天,愚人节,气温在14°C至19°C之间,微风。" \ #--kvcache_path "./kvcache" \ ``` #### Inference with AX650 Host, such as M4N-Dock(爱芯派Pro) or AX650N DEMO Board Open another terminal and run `run_qwen2.5_1.5b_ctx_ax650.sh` ``` root@ax650:/mnt/qtang/llm-test/qwen2.5-1.5b-ctx# ./run_qwen2.5_1.5b_ctx_ax650.sh [I][ Init][ 110]: LLM init start [I][ Init][ 34]: connect http://0.0.0.0:12345 ok [I][ Init][ 57]: uid: 1d0fadb4-1aa1-44d2-9587-e27badcd2ebf bos_id: -1, eos_id: 151645 3% | ██ | 1 / 31 [4.80s<148.95s, 0.21 count/s] tokenizer init ok [I][ Init][ 26]: LLaMaEmbedSelector use mmap 100% | ████████████████████████████████ | 31 / 31 [24.90s<24.90s, 1.24 count/s] init post axmodel ok,remain_cmm(7477 MB) [I][ Init][ 188]: max_token_len : 2047 [I][ Init][ 193]: kv_cache_size : 256, kv_cache_num: 2047 [I][ Init][ 201]: prefill_token_num : 128 [I][ Init][ 205]: grp: 1, prefill_max_token_num : 1 [I][ Init][ 205]: grp: 2, prefill_max_token_num : 128 [I][ Init][ 205]: grp: 3, prefill_max_token_num : 256 [I][ Init][ 205]: grp: 4, prefill_max_token_num : 384 [I][ Init][ 205]: grp: 5, prefill_max_token_num : 512 [I][ Init][ 205]: grp: 6, prefill_max_token_num : 640 [I][ Init][ 205]: grp: 7, prefill_max_token_num : 768 [I][ Init][ 205]: grp: 8, prefill_max_token_num : 896 [I][ Init][ 205]: grp: 9, prefill_max_token_num : 1024 [I][ Init][ 209]: prefill_max_token_num : 1024 [I][ load_config][ 282]: load config: { "enable_repetition_penalty": false, "enable_temperature": false, "enable_top_k_sampling": false, "enable_top_p_sampling": false, "penalty_window": 20, "repetition_penalty": 1.2, "temperature": 0.9, "top_k": 10, "top_p": 0.8 } [I][ Init][ 218]: LLM init ok Type "q" to exit, Ctrl+c to stop current running [I][ GenerateKVCachePrefill][ 271]: input token num : 21, prefill_split_num : 1 prefill_grpid : 2 [I][ GenerateKVCachePrefill][ 308]: input_num_token:21 [I][ main][ 230]: precompute_len: 21 [I][ main][ 231]: system_prompt: prompt >> who are you? [I][ SetKVCache][ 531]: prefill_grpid:2 kv_cache_num:128 precompute_len:21 input_num_token:12 [I][ SetKVCache][ 534]: current prefill_max_token_num:896 [I][ Run][ 660]: input token num : 12, prefill_split_num : 1 [I][ Run][ 686]: input_num_token:12 [I][ Run][ 829]: ttft: 306.20 ms I am Qwen, a large language model created by Alibaba Cloud. I am here to assist you with your questions and provide helpful information. How may I assist you today? [N][ Run][ 943]: hit eos,avg 12.20 token/s [I][ GetKVCache][ 500]: precompute_len:68, remaining:956 prompt >> q root@ax650:/mnt/qtang/llm-test/qwen2.5-1.5b-ctx# ```
vwzyrraz7l/blockassist-bc-tall_hunting_vulture_1755672082
vwzyrraz7l
2025-08-20T07:08:26Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "tall hunting vulture", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:08:23Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - tall hunting vulture --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Vanbitcase/7b-100r-qwen-vl
Vanbitcase
2025-08-20T07:08:02Z
0
0
transformers
[ "transformers", "safetensors", "text-generation-inference", "unsloth", "qwen2_vl", "trl", "en", "license:apache-2.0", "endpoints_compatible", "region:us" ]
null
2025-08-20T07:07:44Z
--- base_model: unsloth/qwen2-vl-7b-instruct-bnb-4bit tags: - text-generation-inference - transformers - unsloth - qwen2_vl - trl license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** Vanbitcase - **License:** apache-2.0 - **Finetuned from model :** unsloth/qwen2-vl-7b-instruct-bnb-4bit This qwen2_vl model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
Savoxism/multilingual-e5-small-finetuned-stage1
Savoxism
2025-08-20T07:07:21Z
0
0
sentence-transformers
[ "sentence-transformers", "safetensors", "bert", "sentence-similarity", "feature-extraction", "generated_from_trainer", "dataset_size:100000", "loss:MultipleNegativesRankingLoss", "arxiv:1908.10084", "arxiv:1705.00652", "base_model:intfloat/multilingual-e5-small", "base_model:finetune:intfloat/multilingual-e5-small", "autotrain_compatible", "text-embeddings-inference", "endpoints_compatible", "region:us" ]
sentence-similarity
2025-08-20T07:07:03Z
--- tags: - sentence-transformers - sentence-similarity - feature-extraction - generated_from_trainer - dataset_size:100000 - loss:MultipleNegativesRankingLoss base_model: intfloat/multilingual-e5-small widget: - source_sentence: 'query: Trường hợp trang bị bị hư hỏng thì Chấp hành viên có được cơ quan đơn vị cấp lại trang phục mới không?' sentences: - 'passage: quản lý cấp phát sử dụng trang phục phù hiệu cấp hiệu 1 tổng cục trưởng tổng cục thi hành án dân sự giúp bộ trưởng bộ tư pháp quản lý thống nhất trang phục phù hiệu cấp hiệu của người làm công tác thi hành án dân sự trang phục phù hiệu cấp hiệu của người làm công tác thi hành án dân sự bị hư hỏng bị mất vì lý do khách quan thì được cơ quan cấp bổ sung trường hợp bị hư hỏng bị mất vì lý do khác thì được cơ quan cấp nhưng người làm công tác thi hành án dân sự phải chịu toàn bộ kinh phí mua sắm 2 người làm công tác thi hành án dân sự bị mất trang phục phù hiệu cấp hiệu thi hành án dân sự phải kịp thời báo cáo lãnh đạo cơ quan đơn vị nơi mình đang công tác trường hợp nghỉ thôi việc bị kỷ luật buộc thôi việc chuyển công tác khác thì phải nộp lại phù hiệu cấp hiệu cho thủ trưởng cơ quan thi hành án dân sự đang quản lý trước khi chuyển công tác' - "['passage: cấp phát quản lý và sử dụng trang phục … 2 phù hiệu biển hiệu được\ \ cấp một lần; trường hợp đã cũ hư hỏng hoặc bị mất thì được cấp lại 3 thanh tra\ \ viên cán bộ công chức thanh tra chuyên ngành tài nguyên và môi trường khi làm\ \ việc tại văn phòng và khi thi hành công vụ phải mặc trang phục được cấp theo\ \ quy định tại thông tư này và có trách nhiệm giữ gìn bảo quản trường hợp bị hư\ \ hỏng mất có lý do khách quan thì được cấp bổ sung trường hợp hư hỏng mất không\ \ có lý do chính đáng thì cá nhân phải tự may sắm đảm bảo yêu cầu trang phục để\ \ sử dụng khi thi hành công vụ …'\n 'passage: điều 1 sửa đổi bổ sung khoản 1 điều\ \ 3 thông tư số 238/2016/tt-btc ngày 11 tháng 11 năm 2016 của bộ tài chính quy\ \ định về giá dịch vụ kiểm định an toàn kỹ thuật và bảo vệ môi trường đối với\ \ xe cơ giới thiết bị và xe máy chuyên dùng đang lưu hành; đánh giá hiệu chuẩn\ \ thiết bị kiểm tra xe cơ giới “điều 3 giá dịch vụ kiểm định 1 giá dịch vụ quy\ \ định tại thông tư này là giá đã gồm thuế giá trị gia tăng (mức thuế suất mười\ \ phần trăm - 10%) và chi phí cấp giấy chứng nhận kiểm định an toàn kỹ thuật và\ \ bảo vệ môi trường đối với xe cơ giới xe máy chuyên dùng; không bao gồm chi phí\ \ ăn ở đi lại thông tin liên lạc để phục vụ công tác kiểm tra ở những nơi cách\ \ xa trụ sở đơn vị đăng kiểm trên 100 km chi phí ăn ở đi lại thông tin liên lạc\ \ để phục vụ công tác kiểm tra ở những nơi cách xa trụ sở đơn vị đăng kiểm trên\ \ 100 km (nếu có) thực hiện theo quy định hiện hành của bộ tài chính về chế độ\ \ công tác phí đối với các cơ quan nhà nước và đơn vị sự nghiệp công lập ”'\n\ \ 'passage: 1 tỷ giá trung tâm của đồng việt nam với đô la mỹ được xác định trên\ \ cơ sở tham chiếu diễn biến tỷ giá bình quân gia quyền trên thị trường ngoại\ \ tệ liên ngân hàng diễn biến tỷ giá trên thị trường quốc tế của một số đồng tiền\ \ của các nước có quan hệ thương mại vay trả nợ đầu tư lớn với việt nam các cân\ \ đối kinh tế vĩ mô tiền tệ và mục tiêu chính sách tiền tệ 2 “tỷ giá trung tâm\ \ của đồng việt nam với đô la mỹ” tại quyết định này là “tỷ giá giao dịch bình\ \ quân trên thị trường ngoại tệ liên ngân hàng của đồng việt nam với đô la mỹ”'\n\ \ 'passage: thông tư này quy định về thu gom xử lý sử dụng phụ phẩm cây trồng\ \ tại khu vực canh tác của cây trồng nông nghiệp cây cảnh nấm ăn'\n 'passage:\ \ khoản 5 bộ nông nghiệp và phát triển nông thôn chỉ đạo hướng dẫn các cơ quan\ \ chức năng phối hợp với lực lượng cảnh sát môi trường trong các hoạt động sau:\ \ a) trao đổi thông tin tài liệu cần thiết về chủ trương chính sách trong công\ \ tác quản lý nhà nước; thông báo tình hình kết quả công tác thanh tra kiểm tra\ \ xử lý vi phạm pháp luật về môi trường tài nguyên an toàn thực phẩm trong lĩnh\ \ vực: nông nghiệp lâm nghiệp thủy sản và phát triển nông thôn; b) kiểm tra phát\ \ hiện xử lý các hành vi vi phạm hành chính về môi trường tài nguyên an toàn thực\ \ phẩm trong hoạt động sản xuất kinh doanh sử dụng hóa chất thuốc bảo vệ thực\ \ vật sản phẩm xử lý cải tạo môi trường phân bón chất thải trong nông nghiệp;\ \ lĩnh vực thú y giống vật nuôi thức ăn chăn nuôi giết mổ và chế biến sản phẩm\ \ từ vật nuôi; lĩnh vực bảo vệ và phát triển rừng; lĩnh vực nuôi trồng khai thác\ \ chế biến thủy sản; hoạt động bảo tồn thiên nhiên; c) hướng dẫn hỗ trợ lực lượng\ \ cảnh sát môi trường về công tác chuyên môn chuyên ngành; công tác kiểm định\ \ giám định trong lĩnh vực nông nghiệp lâm nghiệp thủy sản để phát hiện xử lý\ \ tội phạm và vi phạm hành chính về môi trường tài nguyên an toàn thực phẩm'\n\ \ 'passage: điều 8 về báo cáo kết quả thực hiện nhiệm vụ chính phủ thủ tướng chính\ \ phủ giao và kết quả kiểm tra của tổ công tác tháng 4 năm 2017 qua kết quả thực\ \ hiện nhiệm vụ do chính phủ thủ tướng chính phủ giao và kết quả kiểm tra của\ \ tổ công tác chính phủ đánh giá cao sự cố gắng của các bộ cơ quan địa phương\ \ trong thực hiện các nhiệm vụ nhất là nhiệm vụ xây dựng thể chế tuy nhiên trong\ \ tháng 4 năm 2017 số nhiệm vụ quá hạn chưa hoàn thành tăng so với tháng trước\ \ trong đó có một số văn bản quy định chi tiết thi hành luật pháp lệnh chậm được\ \ ban hành đề nghị các bộ trưởng thủ trưởng cơ quan ngang bộ thực hiện nghiêm\ \ chủ trương của chính phủ không để nợ đọng văn bản quy định chi tiết thi hành\ \ luật pháp lệnh đối với những bộ cơ quan còn nợ văn bản quy định chi tiết thi\ \ hành luật pháp lệnh có hiệu lực từ ngày 01 tháng 01 năm 2017 trở về trước luật\ \ pháp lệnh có hiệu lực từ ngày 01 tháng 6 năm 2017 và ngày 01 tháng 7 năm 2017\ \ phải khẩn trương ban hành theo thẩm quyền hoặc trình cấp có thẩm quyền ban hành\ \ chính phủ thống nhất với các kiến nghị của tổ công tác giao tổ công tác hoàn\ \ thiện ban hành báo cáo tình hình thực hiện nhiệm vụ chính phủ thủ tướng chính\ \ phủ giao và kết quả kiểm tra tháng 4 năm 2017 tổ công tác tiếp tục kiểm tra\ \ việc thực hiện nhiệm vụ ở một số bộ cơ quan địa phương và tập trung kiểm tra\ \ chuyên đề về công tác xây dựng và hoàn thiện thể chế và một số chủ trương chính\ \ sách quan trọng của chính phủ các bộ cơ quan địa phương nghiêm túc triển khai\ \ các nhiệm vụ được giao và báo cáo kết quả thực hiện gửi tổ công tác trước ngày\ \ 25 tháng 5 năm 2017']" - 'passage: "3 31 thư viện trường đại học thiết kế theo số lượng người như sau: - 100% số lượng học sinh - 100% số nghiên cứu sinh hệ dài hạn số giáo sư cán bộ giảng dạy và cán bộ khoa học 3 32 khối lượng sách của thư viện lấy theo số lượng người: a) trong các trường đại học tổng hợp y khoa văn hóa và nghệ thuật sư phạm tính 123 đơn vị sách cho mỗi người b) trong các trường đại học kĩ thuật kinh tế công nghiệp tính l06 đơn vị sách cho mỗi người khối lượng sách ít sử dụng và sách dự trữ được bảo quản gọn không được chiếm quá 20% tổng số sách của thư viện 3 33 tuỳ thuộc vào các điều kiện của trường có thể thiết kế các chi nhánh thư viện giữa một số khoa từng khoa hoặc bộ môn cũng như các chi nhánh thư viện ở các bộ phận nghiên khoa học và những bộ phận khác của trường đại học kể cả ở kí túc xá và câu lạc bộ trực thuộc thư viện chung của trường khối lượng sách nhiều nhất của tất cả chi nhánh không được vượt quá 20% tổng số sách chung của trường 3 34 khối lượng sách của thư viện khoa học cần có là 20% tổng số sách phục vụ cho toàn khoa song không được lớn hơn 30 nghìn đơn vị sách "' - source_sentence: 'query: Doanh nghiệp lấn chiếm đất công thuộc đất phi nông nghiệp để xây dựng công trình cần phải thực hiện những biện pháp khắc phục hậu quả gì?' sentences: - 'passage: lấn chiếm đất 7 biện pháp khắc phục hậu quả: a) buộc khôi phục lại tình trạng ban đầu của đất trước khi vi phạm đối với các hành vi vi phạm tại các khoản 1 2 3 4 và khoản 5 của điều này và buộc trả lại đất đã lấn chiếm; trừ trường hợp trường hợp quy định tại điểm b và điểm c khoản này; b) buộc đăng ký đất đai theo quy định đối với trường hợp có đủ điều kiện được công nhận quyền sử dụng đất và các trường hợp người đang sử dụng đất vi phạm được tạm thời sử dụng cho đến khi nhà nước thu hồi đất theo quy định tại điều 22 nghị định số 43/2014/nđ-cp; c) buộc thực hiện tiếp thủ tục giao đất thuê đất theo quy định đối với trường hợp sử dụng đất khi chưa thực hiện xong thủ tục giao đất thuê đất; d) buộc nộp lại số lợi bất hợp pháp có được do thực hiện hành vi vi phạm quy định tại các khoản 1 2 3 4 và 5 điều này; số lợi bất hợp pháp được xác định theo quy định tại khoản 2 điều 7 của nghị định này' - 'passage: nan' - "['passage: khoản 1 trong quá trình thực hiện sắp xếp đổi mới và phát triển nâng\ \ cao hiệu quả hoạt động các công ty nông lâm nghiệp đang sử dụng đất có trách\ \ nhiệm: a) rà soát hiện trạng sử dụng đất về vị trí ranh giới quản lý sử dụng\ \ đất; diện tích đất đang sử dụng đúng mục đích; diện tích đất sử dụng không đúng\ \ mục đích; diện tích đất không sử dụng; diện tích đất đang giao khoán cho thuê\ \ cho mượn bị lấn bị chiếm liên doanh liên kết hợp tác đầu tư và đang có tranh\ \ chấp; b) căn cứ phương án sắp xếp đổi mới và phát triển công ty nông lâm nghiệp\ \ đã được cơ quan có thẩm quyền phê duyệt; quy hoạch sử dụng đất của địa phương\ \ và hiện trạng sử dụng đất để đề xuất phương án sử dụng đất nội dung phương án\ \ sử dụng đất phải thể hiện vị trí ranh giới sử dụng đất; diện tích đất đề nghị\ \ giữ lại sử dụng theo từng loại đất hình thức sử dụng đất thời hạn sử dụng đất;\ \ diện tích đất bàn giao cho địa phương; c) báo cáo cơ quan tài nguyên và môi\ \ trường thẩm định phương án sử dụng đất trước khi trình ủy ban nhân dân cấp tỉnh\ \ phê duyệt; d) tổ chức thực hiện phương án sử dụng đất đã được phê duyệt'\n 'passage:\ \ chương iii quy định kỹ thuật vận hành trạm thu ảnh vệ tinh điều 8 điều kiện\ \ vận hành trạm thu ảnh vệ tinh 1 hệ thống trạm thu ảnh vệ tinh phải đảm bảo ở\ \ trạng thái hoạt động liên tục hai mươi tư giờ một ngày và bảy ngày trong một\ \ tuần 2 công tác vận hành trạm thu phải do người vận hành có trình độ đại học\ \ thuộc một trong các chuyên ngành sau: trắc địa bản đồ viễn thám điện tử viễn\ \ thông công nghệ thông tin và đã được tham gia khóa đào tạo về vận hành trạm\ \ thu ảnh vệ tinh điều 9 ca trực việc vận hành trạm thu ảnh vệ tinh được chia\ \ theo ca trực kết quả làm việc và các sự cố kỹ thuật xảy ra trong ca trực (nếu\ \ có) phải được ghi vào sổ trực (theo mẫu tại phụ lục số 01 ban hành kèm theo\ \ thông tư này) sau khi kết thúc ca trực phải tiến hành bàn giao ca giữa hai nhóm\ \ vận hành và ký vào sổ trực điều 10 công tác chuẩn bị trước khi thu nhận 1 kiểm\ \ tra trạng thái sẵn sàng hoạt động của thiết bị: ăng ten; thiết bị điều khiển\ \ ăng ten; thiết bị chuyển đổi tần số; thiết bị dò tín hiệu; thiết bị đo phổ tần\ \ số; bộ giải điều chế tín hiệu thiết bị gps thiết bị đo gió 2 chạy thử hệ thống\ \ thiết bị điều khiển ăng ten; kiểm tra các thông số kỹ thuật của các thiết bị\ \ sau khi chạy thử và ghi lại các thông số vào sổ trực 3 kiểm tra thiết bị trong\ \ phòng tình trạng hoạt động và các cấu hình của các máy chủ thu nhận xử lý và\ \ lưu trữ tín hiệu 4 kiểm tra kế hoạch thu ảnh và sự đồng bộ về mặt thời gian\ \ giữa hệ thống điều khiển ăng ten và hệ thống xử lý tín hiệu 5 trong trường hợp\ \ xảy ra xung đột về kế hoạch thu ảnh giữa các vệ tinh phải xin ý kiến người quản\ \ lý trạm thu để lựa chọn vệ tinh có mức độ ưu tiên cao hơn điều 11 thu nhận và\ \ xử lý tín hiệu vệ tinh 1 khi hệ thống bắt đầu thu tín hiệu người vận hành phải\ \ theo dõi tín hiệu thu nhận được kiểm tra sơ bộ các kênh truyền tín hiệu thời\ \ gian truyền tín hiệu vị trí thu theo kế hoạch thu ảnh và chất lượng của tín\ \ hiệu thu được từ vệ tinh tất cả các thông tin trên phải được ghi vào sổ trực\ \ hàng ngày 2 người vận hành phải giám sát các quá trình thu nhận xử lý tín hiệu\ \ vệ tinh ra dữ liệu viễn thám mức 0 và lưu trữ dữ liệu này trên hệ thống lưu\ \ trữ trực tuyến của trạm thu ảnh vệ tinh điều 12 đánh giá chất lượng ảnh viễn\ \ thám đánh giá sơ bộ chất lượng ảnh viễn thám: được chia thành các mức rất tốt\ \ tốt xấu và không sử dụng được trong đó mức rất tốt là ảnh được xử lý từ tín\ \ hiệu có giá trị ber bằng 0 mức tốt là ảnh được xử lý từ tín hiệu có giá trị\ \ ber nằm trong khoảng cho phép của nhà sản xuất mức xấu là ảnh được xử lý từ\ \ tín hiệu có giá trị ber lớn dẫn đến ảnh xử lý ra bị nhiễu gây khó khăn trong\ \ quá trình sử dụng mức không sử dụng được là ảnh được xử lý từ tín hiệu có giá\ \ trị ber quá lớn dẫn đến không xử lý ra được ảnh hoặc ảnh được xử lý ra bị nhiễu\ \ nặng không sử dụng được điều 13 đánh giá độ che phủ mây'\n 'passage: khoản 1\ \ rủi ro an ninh hàng không là xác suất thực hiện thành công hành vi can thiệp\ \ bất hợp pháp vào hoạt động hàng không dân dụng đối với mục tiêu cụ thể dựa trên\ \ đánh giá về đe dọa hậu quả và yếu điểm hoặc hạn chế'\n 'passage: khoản 4 trình\ \ tự thủ tục đánh giá nghiệm thu đề tài dự án và chương trình thực hiện theo văn\ \ bản quy định về đánh giá nghiệm thu các nhiệm vụ khoa học và công nghệ cấp nhà\ \ nước và văn bản quy định về đánh giá nghiệm thu đề tài nghiên cứu khoa học công\ \ nghệ tiềm năng do bộ khoa học và công nghệ ban hành'\n 'passage: điều 12 thanh\ \ toán chi phí vận chuyển 1 điều kiện được thanh toán và hồ sơ thanh toán thủ\ \ tục thanh toán chi phí vận chuyển thực hiện theo quy định tại các điểm a và\ \ c khoản 5 điều 11 nghị định số 70/2015/nđ-cp 2 mức thanh toán chi phí vận chuyển\ \ trong phạm vi quỹ bảo hiểm y tế a) trường hợp sử dụng phương tiện vận chuyển\ \ của cơ sở khám bệnh chữa bệnh thì cơ sở khám bệnh chữa bệnh được thanh toán\ \ chi phí vận chuyển cả chiều đi và về theo mức bằng 0 2 lít xăng/km tính theo\ \ khoảng cách thực tế giữa hai cơ sở khám bệnh chữa bệnh và giá xăng tại thời\ \ điểm sử dụng nếu có nhiều hơn một người bệnh cùng được vận chuyển trên một phương\ \ tiện thì mức thanh toán chỉ được tính như đối với vận chuyển một người bệnh;\ \ b) trường hợp không sử dụng phương tiện vận chuyển của cơ sở khám bệnh chữa\ \ bệnh thì cơ sở khám bệnh chữa bệnh bảo hiểm y tế thanh toán trước khoản chi\ \ phí vận chuyển chiều đi cho người bệnh theo mức bằng 0 2 lít xăng/km tính theo\ \ khoảng cách thực tế giữa hai cơ sở khám bệnh chữa bệnh và giá xăng tại thời\ \ điểm sử dụng; c) mức hưởng chi phí vận chuyển quy định tại điểm a và b khoản\ \ 2 điều này áp dụng đối với phương tiện vận chuyển bằng đường bộ hoặc đường sắt\ \ hạng phổ thông trường hợp vận chuyển bằng tàu thủy được quy đổi từ hải lý sang\ \ ki-lô-mét (km); vận chuyển bằng đường hàng không được áp dụng như đối với đường\ \ bộ; ví dụ 1: đồng chí trung úy nguyễn văn a bị bệnh cần vận chuyển bằng tàu\ \ thủy từ đảo cát bà đến bến tàu khách hải phòng để điều trị với hải trình là\ \ 30 hải lý quy đổi tương đương là 56 km giá xăng tại thời điểm vận chuyển là\ \ 15 600 đồng/lít xăng như vậy mức hưởng chi phí vận chuyển của đồng chí nguyễn\ \ văn a được tính như sau: 56 km x 0 2 lít xăng/km x 15 600 đồng/lít = 174 720\ \ đồng ví dụ 2: đồng chí thượng úy lê thị b bị bệnh cần vận chuyển bằng tàu bay\ \ từ tỉnh điện biên đến hà nội để điều trị khoảng cách đường bộ từ điện biên đến\ \ hà nội là 500km giá xăng tại thời điểm vận chuyển là 15 600 đồng/lít xăng như\ \ vậy mức hưởng chi phí vận chuyển của đồng chí lê thị b được tính như sau: 500\ \ km x 0 2 lít xăng/km x 15 600 đồng/lít = 1 560 000 đồng d) chi phí vận chuyển\ \ quy định tại các điểm a và b khoản 2 điều này không thanh toán đối với người\ \ hộ tống người bệnh chuyển tuyến (nếu có); đ) hằng quý cơ quan bảo hiểm xã hội\ \ thanh toán chi phí vận chuyển cho cơ sở khám bệnh chữa bệnh cùng kỳ quyết toán\ \ chi phí khám bệnh chữa bệnh bảo hiểm y tế 3 chi phí vận chuyển ngoài phạm vi\ \ quy định tại khoản 2 điều này'\n 'passage: điều 51 nguyên tắc làm việc của hội\ \ đồng thẩm định cấp điều chỉnh nội dung giấy chứng nhận đủ điều kiện hoạt động\ \ dịch vụ quan trắc môi trường 1 các hoạt động của hội đồng thẩm định được tiến\ \ hành khi tổ chức đã nộp phí thẩm định đủ điều kiện hoạt động dịch vụ quan trắc\ \ môi trường theo quy định của pháp luật 2 chủ tịch hội đồng phó chủ tịch hội\ \ đồng và ủy viên thư ký hội đồng phải là công chức của cơ quan được giao thẩm\ \ định 3 hội đồng thẩm định làm việc theo nguyên tắc thảo luận công khai giữa\ \ các thành viên trong hội đồng và giữa hội đồng thẩm định với đại diện có thẩm\ \ quyền của tổ chức đề nghị cấp điều chỉnh nội dung giấy chứng nhận đủ điều kiện\ \ hoạt động dịch vụ quan trắc môi trường 4 đánh giá kiểm tra thực tế: các thành\ \ viên hội đồng thẩm định có trách nhiệm thẩm định đánh giá chính xác khách quan\ \ các điều kiện hoạt động dịch vụ quan trắc môi trường theo quy định tại điều\ \ 49 thông tư này; lập phiếu đánh giá kiểm tra tại tổ chức theo quy định tại mẫu\ \ số 02 phụ lục iv ban hành kèm theo thông tư này và lập biên bản đánh giá kiểm\ \ tra tại tổ chức theo quy định tại mẫu số 03 phụ lục iv ban hành kèm theo thông\ \ tư này 5 họp hội đồng thẩm định: a) hội đồng tiến hành thẩm định đánh giá điều\ \ kiện hoạt động dịch vụ quan trắc môi trường của tổ chức trên cơ sở các hồ sơ\ \ tài liệu có liên quan và kết quả đánh giá kiểm tra thực tế tại tổ chức; b) phiên\ \ họp chính thức của hội đồng thẩm định được tiến hành khi có đầy đủ các điều\ \ kiện sau: có sự tham gia tại phiên họp trực tiếp hoặc trực tuyến từ 2/3 (hai\ \ phần ba) số lượng thành viên trở lên trong đó phải có chủ tịch hội đồng hoặc\ \ phó chủ tịch hội đồng được chủ tịch hội đồng ủy quyền trong trường hợp chủ tịch\ \ hội đồng vắng mặt; có sự tham gia của đại diện có thẩm quyền hoặc người được\ \ ủy quyền của tổ chức đề nghị cấp điều chỉnh giấy chứng nhận đủ điều kiện hoạt\ \ động dịch vụ quan trắc môi trường; c) các thành viên hội đồng thẩm định vắng\ \ mặt được gửi bản nhận xét trước phiên họp chính thức của hội đồng và được coi\ \ là ý kiến của thành viên tham dự phiên họp chính thức nhưng không tham gia viết\ \ phiếu đánh giá thẩm định; d) chủ tịch hội đồng (hoặc phó chủ tịch hội đồng được\ \ chủ tịch hội đồng ủy quyền trong trường hợp chủ tịch hội đồng vắng mặt) ủy viên\ \ thư ký hội đồng có trách nhiệm ký biên bản họp hội đồng thẩm định điều kiện\ \ hoạt động dịch vụ quan trắc môi trường; đ) ủy viên hội đồng có trách nhiệm viết\ \ bản nhận xét và phiếu đánh giá thẩm định tại phiên họp chính thức của hội đồng\ \ thẩm định theo quy định tại mẫu số 04 và mẫu số 05 phụ lục iv ban hành kèm theo\ \ thông tư này; e) ngoài trách nhiệm theo quy định tại điểm d và đ khoản này ủy\ \ viên thư ký còn có trách nhiệm lập biên bản họp hội đồng thẩm định theo quy\ \ định tại mẫu số 06 phụ lục iv ban hành kèm theo thông tư này trường hợp không\ \ tham dự phiên họp của hội đồng ủy viên thư ký báo cáo chủ tịch hội đồng để cử\ \ một ủy viên hội đồng làm thư ký của phiên họp 6 chi phí cho hoạt động của hội\ \ đồng thẩm định thực hiện theo quy định của pháp luật']" - source_sentence: 'query: Hiện nay việc bảo trì tài sản kết cấu hạ tầng hàng hải có thể thực hiện theo những hình thức nào?' sentences: - 'passage: mẫu thẻ cán bộ công chức viên chức thẻ hình chữ nhật rộng 50mm; dài 90mm trên hai mặt thẻ được in giống nhau các tiêu chí thông tin sau đây: 1 tên cơ quan cấp bộ cấp tỉnh và tương đương hoặc cơ quan cấp trên của cơ quan tổ chức đơn vị trực tiếp sử dụng cán bộ công chức viên chức (ghi ở hàng thứ nhất): chữ in hoa kiểu times new roman size 14 (theo bộ mã tiêu chuẩn tiếng việt tcvn-6909/2001) chữ đậm màu chữ vàng nhạt được in trên nền màu xanh da trời 2 tên cơ quan tổ chức đơn vị trực tiếp sử dụng cán bộ công chức viên chức (ghi ở hàng thứ hai): chữ in hoa kiểu times new roman size 14 (theo bộ mã tiêu chuẩn tiếng việt tcvn-6909/2001) chữ đậm màu chữ vàng nhạt được in trên nền màu xanh da trời 3 họ và tên của cán bộ công chức viên chức (ghi ở hàng thứ ba): chữ in hoa kiểu times new roman size 16 (theo bộ mã tiêu chuẩn tiếng việt tcvn-6909/2001) chữ đậm màu đen được in trên nền màu trắng 4 chức vụ của cán bộ công chức viên chức (ghi ở hàng thứ tư): chữ in hoa kiểu times new roman size 12 (theo bộ mã tiêu chuẩn tiếng việt tcvn-6909/2001) đậm màu đen được in trên nền màu trắng đối với những người không giữ chức vụ lãnh đạo thì ghi chức danh công việc hiện tại của cán bộ công chức viên chức đó 5 mã số thẻ cán bộ công chức viên chức theo hướng dẫn của bộ nội vụ (ghi ở hàng thứ năm) chữ in hoa kiểu times new roman size 14 (theo bộ mã tiêu chuẩn tiếng việt tcvn-6909/2001) đậm màu đỏ được in trên nền màu trắng trong khi chờ quy định mới về mã số thẻ cán bộ công chức viên chức trước mắt vẫn áp dụng số hiệu của thẻ công chức theo hướng dẫn tại công văn số 152/tccp-vc ngày 05 tháng 5 năm 1994 của ban tổ chức – cán bộ chính phủ (nay là bộ nội vụ) về hướng dẫn làm phiếu thẻ công chức 6 ảnh màu cỡ 3 x 4cm của người được cấp thẻ ở vị trí phía dưới bên trái thẻ 7 hình quốc huy in màu theo quy định ở vị trí phía trên bên trái thẻ' - 'passage: 1 tài sản kết cấu hạ tầng giao thông đường bộ phải được bảo trì theo quy định tại nghị định này và các quy định của pháp luật có liên quan; việc bảo trì tài sản bảo đảm tuân theo trình tự quy trình kế hoạch và tiêu chuẩn định mức nhằm duy trì tình trạng kỹ thuật của tài sản bảo đảm hoạt động bình thường và an toàn khi sử dụng khai thác tài sản 2 các hình thức bảo trì tài sản kết cấu hạ tầng giao thông đường bộ: a) bảo trì theo chất lượng thực hiện: bảo trì theo chất lượng thực hiện là việc thực hiện hoạt động bảo trì theo các tiêu chuẩn chất lượng xác định trong một khoảng thời gian với một số tiền nhất định được quy định tại hợp đồng kinh tế cơ quan được giao quản lý tài sản có trách nhiệm xác định chi phí bảo trì để khoán đối với từng tài sản thuộc phạm vi được giao quản lý; trình cơ quan người có thẩm quyền phê duyệt chi phí bảo trì tài sản kết cấu hạ tầng giao thông đường bộ để khoán được xác định theo phương pháp định mức kinh tế - kỹ thuật của hoạt động bảo trì hoặc phương pháp chi phí bình quân của hoạt động bảo trì 3 năm liền kề trước đó cộng với yếu tố trượt giá (nếu có) hoặc kết hợp hai phương pháp trên tiêu chí giám sát nghiệm thu kết quả bảo trì tài sản kết cấu hạ tầng giao thông đường bộ theo chất lượng thực hiện và yếu tố trượt giá thực hiện theo quy định của bộ giao thông vận tải b) bảo trì theo khối lượng thực tế: bảo trì theo khối lượng thực tế là việc thực hiện hoạt động bảo trì theo khối lượng công việc thực tế đã thực hiện việc bảo trì theo khối lượng thực tế áp dụng đối với hoạt động sửa chữa định kỳ và sửa chữa đột xuất tài sản kết cấu hạ tầng giao thông đường bộ 3 bộ trưởng bộ giao thông vận tải chủ tịch ủy ban nhân dân cấp tỉnh quyết định việc áp dụng hình thức bảo trì quy định tại điểm a điểm b khoản 2 điều này đối với từng hoạt động bảo trì tài sản kết cấu hạ tầng giao thông đường bộ theo quy định tại nghị định này pháp luật về quản lý chất lượng và bảo trì công trình xây dựng và pháp luật chuyên ngành đảm bảo tiết kiệm hiệu quả 4 việc lựa chọn tổ chức thực hiện bảo trì tài sản kết cấu hạ tầng giao thông đường bộ theo các hình thức quy định tại khoản 2 điều này được thực hiện theo quy định của pháp luật về đấu thầu pháp luật chuyên ngành giao thông đường bộ và pháp luật có liên quan 5 kinh phí bảo trì tài sản kết cấu hạ tầng giao thông đường bộ được bố trí từ ngân sách nhà nước theo quy định của pháp luật về ngân sách nhà nước và nguồn kinh phí khác theo quy định của pháp luật; trừ các trường hợp sau đây: a) tài sản kết cấu hạ tầng giao thông đường bộ đã tính thành phần vốn nhà nước tại doanh nghiệp; b) tài sản kết cấu hạ tầng giao thông đường bộ trong thời gian cho thuê quyền khai thác mà doanh nghiệp thuê quyền khai thác có nghĩa vụ thực hiện việc bảo trì theo quy định của pháp luật và hợp đồng ký kết; c) tài sản kết cấu hạ tầng giao thông đường bộ trong thời gian chuyển nhượng có thời hạn quyền khai thác mà doanh nghiệp nhận chuyển nhượng có nghĩa vụ thực hiện việc bảo trì theo quy định của pháp luật và hợp đồng ký kết 6 bảo trì tài sản kết cấu hạ tầng giao thông đường bộ đối với trường hợp quy định tại các điểm a b và c khoản 5 điều này thì việc lựa chọn tổ chức cá nhân bảo trì tài sản và việc tổ chức thực hiện bảo trì theo quy định của pháp luật về giao thông đường bộ pháp luật về xây dựng và pháp luật khác có liên quan' - "['passage: khoản 1 công tác bảo trì tài sản kết cấu hạ tầng hàng không được thực\ \ hiện theo hai hình thức: bảo trì theo chất lượng thực hiện và bảo trì theo khối\ \ lượng thực tế theo quy định tại khoản 2 điều 8 nghị định số 44/2018/nđ-cp'\n\ \ 'passage: \"điều 18 đánh giá hồ sơ dự thầu [ ] 3 đánh giá về năng lực và kinh\ \ nghiệm: a) việc đánh giá về năng lực và kinh nghiệm thực hiện theo tiêu chuẩn\ \ đánh giá quy định trong hồ sơ mời thầu; b) nhà thầu có năng lực và kinh nghiệm\ \ đáp ứng yêu cầu được xem xét đánh giá về kỹ thuật \"'\n 'passage: \"điều 66\ \ người làm chứng 1 người làm chứng là người biết được những tình tiết liên quan\ \ đến nguồn tin về tội phạm về vụ án và được cơ quan có thẩm quyền tiến hành tố\ \ tụng triệu tập đến làm chứng 2 những người sau đây không được làm chứng: a)\ \ người bào chữa của người bị buộc tội; b) người do nhược điểm về tâm thần hoặc\ \ thể chất mà không có khả năng nhận thức được những tình tiết liên quan nguồn\ \ tin về tội phạm về vụ án hoặc không có khả năng khai báo đúng đắn \"'\n 'passage:\ \ vi phạm các quy định về bảo vệ môi trường tại cơ sở khu sản xuất kinh doanh\ \ dịch vụ tập trung cụm công nghiệp làng nghề 4 hành vi vi phạm quy định về bảo\ \ vệ môi trường trong hoạt động kinh doanh hạ tầng khu sản xuất kinh doanh dịch\ \ vụ tập trung bị xử phạt như sau: a) phạt tiền từ 10 000 000 đồng đến 20 000\ \ 000 đồng đối với hành vi không bố trí nhân sự phụ trách về bảo vệ môi trường\ \ theo quy định; không ban hành quy chế bảo vệ môi trường của khu sản xuất kinh\ \ doanh dịch vụ tập trung phù hợp yêu cầu về bảo vệ môi trường theo quy định;\ \ không phối hợp với cơ quan có thẩm quyền tổ chức thực hiện hoạt động bảo vệ\ \ môi trường kiểm tra thanh tra về bảo vệ môi trường đối với các dự án đầu tư\ \ cơ sở trong khu sản xuất kinh doanh dịch vụ tập trung theo quy định;'\n 'passage:\ \ chính sách tín dụng đối với hoạt động khoa học và công nghệ 1 tổ chức cá nhân\ \ hoạt động khoa học và công nghệ vay vốn trung và dài hạn để hoạt động khoa học\ \ và công nghệ được hưởng lãi suất ưu đãi khi vay vốn tại quỹ phát triển khoa\ \ học và công nghệ quốc gia các quỹ khác của nhà nước 2 tổ chức cá nhân vay vốn\ \ để đầu tư vào hoạt động khoa học và công nghệ được ưu đãi về tín dụng theo điều\ \ lệ của quỹ nơi vay vốn 3 tổ chức cá nhân vay vốn tại ngân hàng thương mại để\ \ đầu tư vào hoạt động khoa học và công nghệ đặc biệt hoạt động triển khai thực\ \ nghiệm và sản xuất thử nghiệm được ngân hàng phát triển việt nam xem xét hỗ\ \ trợ lãi suất sau đầu tư hoặc bảo lãnh tín dụng đầu tư dành tỷ lệ nhất định dư\ \ nợ tín dụng cho hoạt động khoa học và công nghệ 4 những chương trình đề tài\ \ dự án khoa học và công nghệ phục vụ trực tiếp chương trình kinh tế - xã hội\ \ trọng điểm của nhà nước và phát triển tiềm lực khoa học và công nghệ quốc gia\ \ đặc biệt dự án triển khai thực nghiệm sản xuất thử nghiệm có yêu cầu sử dụng\ \ vốn lớn được ưu tiên xét cho sử dụng vốn hỗ trợ phát triển chính thức theo phương\ \ thức sau đây: a) tài trợ không hoàn lại hoặc cho vay ưu đãi đối với hoạt động\ \ nghiên cứu khoa học và phát triển công nghệ; b) cho vay đối với dự án đầu tư\ \ xây dựng tiềm lực khoa học và công nghệ hoặc cho vay có thu hồi đối với dự án\ \ ứng dụng kết quả nghiên cứu khoa học và phát triển công nghệ'\n 'passage: thuế\ \ thu nhập doanh nghiệp 2 tỷ lệ (%) thuế tndn tính trên doanh thu tính thuế a)\ \ tỷ lệ (%) thuế tndn tính trên doanh thu tính thuế đối với ngành kinh doanh:']" - source_sentence: 'query: Chăn nuôi số lượng bao nhiêu con giống vật nuôi là dê Bách Thảo thì cần kê khai hoạt động chăn nuôi?' sentences: - "['passage: 1 cục chăn nuôi có trách nhiệm: a) tổ chức triển khai kê khai hoạt\ \ động chăn nuôi và các nội dung liên quan đến hoạt động chăn nuôi trên phạm vi\ \ cả nước b) xây dựng chương trình khung (nội dung thời gian) về đào tạo kỹ thuật\ \ thụ tinh nhân tạo cấy truyền phôi cho trâu bò dê cừu ngựa c) thực hiện thanh\ \ tra kiểm tra hoạt động chăn nuôi trên phạm vi cả nước 2 sở nông nghiệp và phát\ \ triển nông thôn các tỉnh thành phố trực thuộc trung ương có trách nhiệm: a)\ \ tổ chức triển khai các nội dung liên quan đến hoạt động chăn nuôi được quy định\ \ tại thông tư này trên địa bàn; b) thực hiện công tác thanh tra kiểm tra về hoạt\ \ động chăn nuôi trên địa bàn; c) tổng hợp báo cáo kết quả kê khai hoạt động chăn\ \ nuôi trên địa bàn về cục chăn nuôi định kỳ trước ngày 10 tháng đầu tiên của\ \ quý tiếp theo hoặc khi có yêu cầu của cơ quan có thẩm quyền 3 tổ chức cá nhân\ \ chăn nuôi: tổ chức cá nhân chăn nuôi có trách nhiệm thực hiện quy định của thông\ \ tư này và quy định của pháp luật có liên quan'\n 'passage: điều 18 thông qua\ \ đề nghị xây dựng văn bản quy phạm pháp luật: 1 chính phủ xem xét đề nghị xây\ \ dựng luật nghị quyết của quốc hội pháp lệnh nghị quyết của ủy ban thường vụ\ \ quốc hội nghị định của chính phủ vào phiên họp thường kỳ của chính phủ trường\ \ hợp có nhiều đề nghị hoặc căn cứ vào chương trình công tác của chính phủ thủ\ \ tướng chính phủ văn phòng chính phủ chủ trì phối hợp với bộ tư pháp đề xuất\ \ phiên họp chuyên đề của chính phủ về công tác xây dựng pháp luật trên cơ sở\ \ nghị quyết của chính phủ thông qua đề nghị cơ quan lập đề nghị chủ động tiến\ \ hành việc soạn thảo dự án dự thảo văn bản 2 ủy ban nhân dân cấp tỉnh xem xét\ \ thông qua đề nghị xây dựng nghị quyết của hội đồng nhân dân cấp tỉnh vào phiên\ \ họp thường kỳ của ủy ban nhân dân để trình thường trực hội đồng nhân dân cấp\ \ tỉnh trường hợp chấp thuận thường trực hội đồng nhân dân cấp tỉnh có văn bản\ \ phân công cơ quan tổ chức trình dự thảo nghị quyết thời hạn trình hội đồng nhân\ \ dân cấp tỉnh và giao ủy ban nhân dân cấp tỉnh bố trí kinh phí bảo đảm cho việc\ \ soạn thảo'\n 'passage: 1 khu vực biển phải thoáng địa hình đáy bằng phẳng không\ \ có bãi nổi bãi đá ngầm làm biến dạng hướng dòng chảy 2 khu vực quan trắc phải\ \ sâu nhất trong vùng quan trắc độ sâu phải đạt tối thiểu 5 m khi mực nước triều\ \ thấp nhất 3 công trình lắp phương tiện đo thủ công và tự động đảm bảo các đặc\ \ tính kỹ thuật; vị trí công trình quan trắc được gắn cố định vào cầu cảng nhà\ \ giàn phao rùa và tàu'\n 'passage: xây dựng cơ sở dữ liệu về thi hành tạm giữ\ \ tạm giam 3 các hình thức thu thập cập nhật thông tin: a) báo cáo định kỳ báo\ \ cáo vụ việc báo cáo chuyên đề về thi hành tạm giữ tạm giam và các số liệu thống\ \ kê theo mẫu quy định của bộ trưởng bộ công an bộ trưởng bộ quốc phòng; b) hồ\ \ sơ quản lý người bị tạm giữ người bị tạm giam; c) các cơ sở dữ liệu có liên\ \ quan; d) các hình thức khác'\n 'passage: điều kiện cho vay lại 4 lãi suất cho\ \ vay lại: a lãi suất cho vay lại trong hạn: - mức lãi suất cho vay lại: + bằng\ \ đồng việt nam: được xác định theo ngành kinh tế kỹ thuật và không vượt quá lãi\ \ suất tín dụng đầu tư của nhà nước quy định trong từng thời kỳ do bộ tài chính\ \ công bố + bằng ngoại tệ: bằng lãi suất cho vay lại bằng đồng việt nam quy định\ \ nêu trên trừ đi tỷ lệ rủi ro hối đoái tương ứng của đồng tiền cho vay lại nhưng\ \ không thấp hơn mức lãi suất vay nước ngoài và không cao hơn hai phần ba (2/3)\ \ lãi suất thương mại tham chiếu (cirr) do tổ chức hợp tác phát triển kinh tế\ \ (oecd) công bố tại thời điểm xác định lãi suất cho vay lại mức rủi ro hối đoái\ \ hàng năm đối với 3 loại ngoại tệ là đô la mỹ (usd) euro (eur) và yên nhật bản\ \ (jpy) do bộ tài chính công bố hàng năm (chậm nhất là ngày 15/3 hàng năm và được\ \ áp dụng cho đến hết ngày 15/3 năm kế tiếp) trường hợp ngoại tệ gốc trong hiệp\ \ định vay khác với ba loại ngoại tệ nói trên mức rủi ro hối đoái được áp dụng\ \ theo mức rủi ro hối đoái của đồng usd - lãi suất cho vay lại được quy định tại\ \ hợp đồng ủy quyền cho vay lại ký giữa nhpt và bộ tài chính - lãi cho vay lại\ \ được tính trên dư nợ kể từ ngày rút vốn vay b lãi suất chậm trả: quy định tại\ \ hợp đồng ủy quyền cho vay lại ký giữa nhpt và bộ tài chính bằng 150% lãi suất\ \ cho vay lại hoặc mức lãi suất chậm trả ghi trong hiệp định vay gốc tùy theo\ \ mức nào cao hơn lãi chậm trả được tính trên số nợ (gốc lãi) chậm trả tính từ\ \ ngày đến hạn trả nhưng chưa trả cho đến ngày thực tế trả nợ'\n 'passage: định\ \ mức giờ giảng được xác định là số giờ chuẩn cho mỗi nhà giáo phải giảng dạy\ \ được quy định theo năm học']" - 'passage: hành vi vi phạm về cung cấp thông tin về hàng hóa dịch vụ cho người tiêu dùng 1 phạt tiền từ 10 000 000 đồng đến 20 000 000 đồng đối với thương nhân có một trong các hành vi vi phạm về cung cấp thông tin về hàng hóa dịch vụ cho người tiêu dùng sau đây: a) không cảnh báo khả năng hàng hóa dịch vụ có ảnh hưởng xấu đến sức khỏe tính mạng tài sản của người tiêu dùng và các biện pháp phòng ngừa theo quy định; b) không cung cấp thông tin về khả năng cung ứng linh kiện phụ kiện thay thế của hàng hóa theo quy định; c) không cung cấp hướng dẫn sử dụng hoặc không cung cấp thông tin về điều kiện thời hạn địa điểm thủ tục bảo hành trong trường hợp hàng hóa dịch vụ có bảo hành theo quy định; d) không thông báo chính xác đầy đủ cho người tiêu dùng về hợp đồng theo mẫu điều kiện giao dịch chung trước khi giao dịch theo quy định; đ) che giấu thông tin hoặc cung cấp thông tin không đầy đủ sai lệch không chính xác cho người tiêu dùng theo quy định' - 'passage: kê khai hoạt động chăn nuôi 1 tổ chức cá nhân chăn nuôi phải kê khai hoạt động chăn nuôi về loại số lượng vật nuôi theo quy định tại phụ lục ii ban hành kèm theo thông tư này 2 tổ chức cá nhân chăn nuôi thực hiện kê khai hoạt động chăn nuôi từ ngày 25 đến ngày 30 của tháng cuối quý theo biểu mẫu quy định tại phụ lục iii ban hành kèm theo thông tư này' - source_sentence: 'query: Quy định về xử lý dữ liệu cá nhân của trẻ em áp dụng từ ngày nào?' sentences: - 'passage: nguyên tắc bổ nhiệm và xếp lương theo chức danh nghề nghiệp đối với nhân viên thiết bị thí nghiệm 1 việc bổ nhiệm vào chức danh nghề nghiệp đối với nhân viên thiết bị thí nghiệm quy định tại thông tư này phải căn cứ vào vị trí việc làm chức trách nhiệm vụ năng lực và chuyên môn nghiệp vụ của viên chức 2 khi bổ nhiệm từ các ngạch công chức hoặc chức danh nghề nghiệp viên chức hiện giữ vào chức danh nghề nghiệp nhân viên thiết bị thí nghiệm không được kết hợp nâng bậc lương viên chức' - "['passage: xử lý dữ liệu cá nhân của trẻ em 2 việc xử lý dữ liệu cá nhân của\ \ trẻ em phải có sự đồng ý của trẻ em trong trường hợp trẻ em từ đủ 7 tuổi trở\ \ lên và có sự đồng ý của cha mẹ hoặc người giám hộ theo quy định trừ trường hợp\ \ quy định tại điều 17 nghị định này bên kiểm soát dữ liệu cá nhân bên xử lý dữ\ \ liệu cá nhân bên kiểm soát và xử lý dữ liệu cá nhân bên thứ ba phải xác minh\ \ tuổi của trẻ em trước khi xử lý dữ liệu cá nhân của trẻ em'\n 'passage: khoản\ \ 1 phạt tiền từ 200 000 đồng đến 500 000 đồng đối với một trong các hành vi sau\ \ đây: a người say rượu vào vũ trường nơi khiêu vũ công cộng phòng hát karaoke;\ \ b cho thuê cho mượn địa điểm làm vũ trường nơi khiêu vũ công cộng hoạt động\ \ karaoke mà không giám sát để xảy ra hoạt động mại dâm nghiện hút ma tuý đánh\ \ bạc; c sử dụng vũ nữ mà không đăng ký danh sách với cơ quan công an có thẩm\ \ quyền'\n 'passage: nghị định này quy định thi hành bộ luật dân sự về bảo đảm\ \ thực hiện nghĩa vụ bao gồm tài sản bảo đảm; xác lập thực hiện biện pháp bảo\ \ đảm thực hiện nghĩa vụ (sau đây gọi là biện pháp bảo đảm) và xử lý tài sản bảo\ \ đảm'\n 'passage: khoản 3 quá thời hạn 07 ngày kể từ thời điểm ấn định trong\ \ thỏa thuận bàn giao người đang chấp hành án phạt tù mà nước yêu cầu chuyển giao\ \ không tiếp nhận chuyển giao mà không có lý do chính đáng thì cơ quan đầu mối\ \ của bộ công an về công tác chuyển giao người đang chấp hành án phạt tù lập biên\ \ bản về việc này và thông báo ngay cho tòa án đã ra quyết định chuyển giao biết\ \ để xem xét hủy quyết định thi hành quyết định chuyển giao đồng thời thông báo\ \ cho nước yêu cầu chuyển giao biết'\n 'passage: các đơn vị bộ phận trong ban\ \ chỉ đạo 389 bộ tài chính 1 đơn vị thường trực ban chỉ đạo 389 bộ tài chính là\ \ tổng cục hải quan 2 bộ phận tham mưu giúp việc cho các phó trưởng ban trong\ \ việc triển khai công tác của ban chỉ đạo 389 bộ tài chính và ban chỉ đạo 389\ \ quốc gia bao gồm: a) tổng cục thuế: thanh tra; b) tổng cục hải quan: công chức\ \ tổng cục hải quan được cử biệt phái sang văn phòng thường trực ban chỉ đạo 389\ \ quốc gia 3 các đơn vị có lãnh đạo là thành viên ban chỉ đạo 389 bộ tài chính\ \ có trách nhiệm phân công cán bộ giúp việc cho lãnh đạo đơn vị mình'\n 'passage:\ \ hủy quyết định hoãn chấp hành án phạt tù 1 tòa án xem xét hủy quyết định hoãn\ \ chấp hành án phạt tù trong các trường hợp sau: a) người được hoãn chấp hành\ \ án phạt tù không cam kết chấp hành nghiêm chỉnh pháp luật hoặc thực hiện hành\ \ vi phạm tội mới bỏ trốn hoặc vi phạm pháp luật gây ảnh hưởng xấu đến an ninh\ \ trật tự an toàn xã hội; b) người được hoãn chấp hành án phạt tù có kết quả giám\ \ định xác định họ mắc bệnh tâm thần bệnh khác làm mất khả năng nhận thức hoặc\ \ khả năng điều khiển hành vi; c) người được hoãn chấp hành án phạt tù có kết\ \ quả giám định xác định họ đã hồi phục sức khỏe và đã bị đưa đến nơi chấp hành\ \ án phạt tù; d) người được hoãn chấp hành án phạt tù có đơn tự nguyện xin chấp\ \ hành án phạt tù']" - 'passage: nghị định này có hiệu lực thi hành kể từ ngày ký ban hành các quy định tại khoản 2 khoản 3 khoản 4 điều 1 nghị định này có hiệu lực thi hành kể từ ngày 01 tháng 01 năm 2021' pipeline_tag: sentence-similarity library_name: sentence-transformers --- # SentenceTransformer based on intfloat/multilingual-e5-small This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. ## Model Details ### Model Description - **Model Type:** Sentence Transformer - **Base model:** [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small) <!-- at revision c007d7ef6fd86656326059b28395a7a03a7c5846 --> - **Maximum Sequence Length:** 512 tokens - **Output Dimensionality:** 384 dimensions - **Similarity Function:** Cosine Similarity <!-- - **Training Dataset:** Unknown --> <!-- - **Language:** Unknown --> <!-- - **License:** Unknown --> ### Model Sources - **Documentation:** [Sentence Transformers Documentation](https://sbert.net) - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) ### Full Model Architecture ``` SentenceTransformer( (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) (2): Normalize() ) ``` ## Usage ### Direct Usage (Sentence Transformers) First install the Sentence Transformers library: ```bash pip install -U sentence-transformers ``` Then you can load this model and run inference. ```python from sentence_transformers import SentenceTransformer # Download from the 🤗 Hub model = SentenceTransformer("sentence_transformers_model_id") # Run inference sentences = [ 'query: Quy định về xử lý dữ liệu cá nhân của trẻ em áp dụng từ ngày nào?', 'passage: nghị định này có hiệu lực thi hành kể từ ngày ký ban hành các quy định tại khoản 2 khoản 3 khoản 4 điều 1 nghị định này có hiệu lực thi hành kể từ ngày 01 tháng 01 năm 2021', "['passage: xử lý dữ liệu cá nhân của trẻ em 2 việc xử lý dữ liệu cá nhân của trẻ em phải có sự đồng ý của trẻ em trong trường hợp trẻ em từ đủ 7 tuổi trở lên và có sự đồng ý của cha mẹ hoặc người giám hộ theo quy định trừ trường hợp quy định tại điều 17 nghị định này bên kiểm soát dữ liệu cá nhân bên xử lý dữ liệu cá nhân bên kiểm soát và xử lý dữ liệu cá nhân bên thứ ba phải xác minh tuổi của trẻ em trước khi xử lý dữ liệu cá nhân của trẻ em'\n 'passage: khoản 1 phạt tiền từ 200 000 đồng đến 500 000 đồng đối với một trong các hành vi sau đây: a người say rượu vào vũ trường nơi khiêu vũ công cộng phòng hát karaoke; b cho thuê cho mượn địa điểm làm vũ trường nơi khiêu vũ công cộng hoạt động karaoke mà không giám sát để xảy ra hoạt động mại dâm nghiện hút ma tuý đánh bạc; c sử dụng vũ nữ mà không đăng ký danh sách với cơ quan công an có thẩm quyền'\n 'passage: nghị định này quy định thi hành bộ luật dân sự về bảo đảm thực hiện nghĩa vụ bao gồm tài sản bảo đảm; xác lập thực hiện biện pháp bảo đảm thực hiện nghĩa vụ (sau đây gọi là biện pháp bảo đảm) và xử lý tài sản bảo đảm'\n 'passage: khoản 3 quá thời hạn 07 ngày kể từ thời điểm ấn định trong thỏa thuận bàn giao người đang chấp hành án phạt tù mà nước yêu cầu chuyển giao không tiếp nhận chuyển giao mà không có lý do chính đáng thì cơ quan đầu mối của bộ công an về công tác chuyển giao người đang chấp hành án phạt tù lập biên bản về việc này và thông báo ngay cho tòa án đã ra quyết định chuyển giao biết để xem xét hủy quyết định thi hành quyết định chuyển giao đồng thời thông báo cho nước yêu cầu chuyển giao biết'\n 'passage: các đơn vị bộ phận trong ban chỉ đạo 389 bộ tài chính 1 đơn vị thường trực ban chỉ đạo 389 bộ tài chính là tổng cục hải quan 2 bộ phận tham mưu giúp việc cho các phó trưởng ban trong việc triển khai công tác của ban chỉ đạo 389 bộ tài chính và ban chỉ đạo 389 quốc gia bao gồm: a) tổng cục thuế: thanh tra; b) tổng cục hải quan: công chức tổng cục hải quan được cử biệt phái sang văn phòng thường trực ban chỉ đạo 389 quốc gia 3 các đơn vị có lãnh đạo là thành viên ban chỉ đạo 389 bộ tài chính có trách nhiệm phân công cán bộ giúp việc cho lãnh đạo đơn vị mình'\n 'passage: hủy quyết định hoãn chấp hành án phạt tù 1 tòa án xem xét hủy quyết định hoãn chấp hành án phạt tù trong các trường hợp sau: a) người được hoãn chấp hành án phạt tù không cam kết chấp hành nghiêm chỉnh pháp luật hoặc thực hiện hành vi phạm tội mới bỏ trốn hoặc vi phạm pháp luật gây ảnh hưởng xấu đến an ninh trật tự an toàn xã hội; b) người được hoãn chấp hành án phạt tù có kết quả giám định xác định họ mắc bệnh tâm thần bệnh khác làm mất khả năng nhận thức hoặc khả năng điều khiển hành vi; c) người được hoãn chấp hành án phạt tù có kết quả giám định xác định họ đã hồi phục sức khỏe và đã bị đưa đến nơi chấp hành án phạt tù; d) người được hoãn chấp hành án phạt tù có đơn tự nguyện xin chấp hành án phạt tù']", ] embeddings = model.encode(sentences) print(embeddings.shape) # [3, 384] # Get the similarity scores for the embeddings similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [3, 3] ``` <!-- ### Direct Usage (Transformers) <details><summary>Click to see the direct usage in Transformers</summary> </details> --> <!-- ### Downstream Usage (Sentence Transformers) You can finetune this model on your own dataset. <details><summary>Click to expand</summary> </details> --> <!-- ### Out-of-Scope Use *List how the model may foreseeably be misused and address what users ought not to do with the model.* --> <!-- ## Bias, Risks and Limitations *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* --> <!-- ### Recommendations *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* --> ## Training Details ### Training Dataset #### Unnamed Dataset * Size: 100,000 training samples * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code> * Approximate statistics based on the first 1000 samples: | | anchor | positive | negative | |:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------| | type | string | string | string | | details | <ul><li>min: 10 tokens</li><li>mean: 27.45 tokens</li><li>max: 59 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 245.47 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 512 tokens</li><li>mean: 512.0 tokens</li><li>max: 512 tokens</li></ul> | * Samples: | anchor | positive | negative | |:-------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | <code>query: Quân nhân dự bị được xếp trong đơn vị dự bị động viên thì phải có trách nhiệm như thế nào?</code> | <code>passage: "điều 4 trách nhiệm của quân nhân dự bị được xếp trong đơn vị dự bị động viên 1 quân nhân dự bị được xếp trong đơn vị dự bị động viên có trách nhiệm sau đây: a) kiểm tra sức khỏe; b) thực hiện lệnh gọi huấn luyện diễn tập kiểm tra sẵn sàng động viên sẵn sàng chiến đấu; c) thực hiện chế độ sinh hoạt đơn vị dự bị động viên và nhiệm vụ do người chỉ huy giao; d) thực hiện lệnh huy động để bổ sung cho lực lượng thường trực của quân đội nhân dân 2 quân nhân dự bị giữ chức vụ chỉ huy đơn vị dự bị động viên có trách nhiệm sau đây: a) thực hiện quy định tại khoản 1 điều này; b) nắm tình hình số lượng chất lượng đơn vị; duy trì đơn vị sinh hoạt theo chế độ và thực hiện chế độ báo cáo; c) quản lý chỉ huy đơn vị khi huấn luyện diễn tập kiểm tra sẵn sàng động viên sẵn sàng chiến đấu; d) quản lý chỉ huy đơn vị để bổ sung cho lực lượng thường trực của quân đội nhân dân "</code> | <code>['passage: thông tư này quy định hình thức nội dung thời gian sinh hoạt của quân nhân dự bị đã xếp vào đơn vị dự bị động viên'<br> 'passage: “điều 16 thời hạn thanh tra của đoàn thanh tra chuyên ngành 1 thời hạn thực hiện một cuộc thanh tra chuyên ngành được quy định như sau: a) cuộc thanh tra chuyên ngành do thanh tra bộ tổng cục cục thuộc bộ tiến hành không quá 45 ngày; trường hợp phức tạp có thể kéo dài hơn nhưng không quá 70 ngày; b) cuộc thanh tra chuyên ngành do thanh tra sở chi cục thuộc sở tiến hành không quá 30 ngày; trường hợp phức tạp có thể kéo dài hơn nhưng không quá 45 ngày 2 thời hạn của cuộc thanh tra được tính từ ngày công bố quyết định thanh tra đến ngày kết thúc việc thanh tra tại nơi được thanh tra 3 việc kéo dài thời hạn thanh tra do người ra quyết định thanh tra chuyên ngành quyết định ”'<br> 'passage: chương i quy định chung điều 1 phạm vi điều chỉnh thông tư này quy định chi tiết khoản 2 điều 39 khoản 2 điều 75 luật khoáng sản; khoản 5 điều 7 khoản 3 điều 35 khoản 2 đ...</code> | | <code>query: Quân nhân chuyên nghiệp dự bị và hạ sĩ quan, binh sĩ dự bị sắp xếp vào đơn vị dự bị động viên là bao nhiêu tuổi?</code> | <code>passage: "điều 17 độ tuổi quân nhân dự bị sắp xếp vào đơn vị dự bị động viên trong thời bình 1 độ tuổi sĩ quan dự bị sắp xếp vào đơn vị dự bị động viên thực hiện theo quy định của luật sĩ quan quân đội nhân dân việt nam 2 độ tuổi quân nhân chuyên nghiệp dự bị và hạ sĩ quan binh sĩ dự bị sắp xếp vào đơn vị dự bị động viên được quy định như sau: a) nam quân nhân chuyên nghiệp dự bị không quá 40 tuổi; hạ sĩ quan binh sĩ dự bị không quá 35 tuổi được sắp xếp vào đơn vị chiến đấu; b) nam quân nhân chuyên nghiệp dự bị và hạ sĩ quan binh sĩ dự bị không quá 45 tuổi; nữ quân nhân dự bị không quá 40 tuổi được sắp xếp vào đơn vị bảo đảm chiến đấu "</code> | <code>['passage: nhóm tuổi phục vụ của hạ sĩ quan binh sĩ dự bị 1 tuổi phục vụ của hạ sĩ quan binh sĩ dự bị được chia thành hai nhóm như sau: 1 nhóm a: công dân nam đến hết 35 tuổi công dân nữ đến hết 30 tuổi; 2 nhóm b: công dân nam từ 36 tuổi đến hết 45 tuổi công dân nữ từ 31 tuổi đến hết 40 tuổi'<br> 'passage: "điều 57 mức đóng nguồn hình thành và sử dụng quỹ bảo hiểm thất nghiệp 1 mức đóng và trách nhiệm đóng bảo hiểm thất nghiệp được quy định như sau: a) người lao động đóng bằng 1% tiền lương tháng; b) người sử dụng lao động đóng bằng 1% quỹ tiền lương tháng của những người lao động đang tham gia bảo hiểm thất nghiệp; c) nhà nước hỗ trợ tối đa 1% quỹ tiền lương tháng đóng bảo hiểm thất nghiệp của những người lao động đang tham gia bảo hiểm thất nghiệp và do ngân sách trung ương bảo đảm 2 nguồn hình thành quỹ bảo hiểm thất nghiệp bao gồm: a) các khoản đóng và hỗ trợ theo quy định tại khoản 1 điều này; b) tiền sinh lời của hoạt động đầu tư từ quỹ; c) nguồn thu hợp pháp khác 3 quỹ bảo hiểm thấ...</code> | | <code>query: Văn phòng Bộ Văn hóa Thể thao và Du lịch có con dấu và tài khoản riêng hay không?</code> | <code>passage: vị trí và chức năng văn phòng bộ là tổ chức hành chính thuộc bộ văn hóa thể thao và du lịch có chức năng tham mưu tổng hợp điều phối giúp bộ trưởng tổ chức các hoạt động chung của bộ; theo dõi đôn đốc các tổ chức đơn vị thuộc bộ thực hiện chương trình kế hoạch công tác của bộ; kiểm soát thủ tục hành chính cải cách hành chính tổ chức triển khai thực hiện cơ chế một cửa một cửa liên thông trong giải quyết thủ tục hành chính theo quy định của pháp luật; bảo đảm điều kiện vật chất kỹ thuật phương tiện làm việc cho hoạt động của lãnh đạo bộ và các cơ quan tổ chức đơn vị sử dụng ngân sách qua văn phòng bộ văn phòng bộ có con dấu riêng và có tài khoản để giao dịch theo quy định của pháp luật</code> | <code>['passage: khoản 3 sở văn hóa thể thao và du lịch sở văn hóa và thể thao sở du lịch có tư cách pháp nhân có con dấu và tài khoản riêng; chịu sự chỉ đạo quản lý về tổ chức biên chế và công tác của ủy ban nhân dân cấp tỉnh đồng thời chịu sự chỉ đạo kiểm tra về nghiệp vụ của bộ văn hóa thể thao và du lịch'<br> 'passage: điều 8 ủy ban quốc phòng và an ninh xử lý các đơn thư có nội dung sau: 1 kiến nghị khiếu nại về việc thực hiện chế độ chính sách trong quân đội và công an; về nhà đất do bộ quốc phòng và bộ công an quản lý và các kiến nghị khiếu nại khác thuộc lĩnh vực ủy ban phụ trách; 2 tố cáo cơ quan tổ chức cá nhân thuộc quân đội công an vi phạm pháp luật trừ đơn thư quy định tại khoản 4 điều 5 của nghị quyết này'<br> 'passage: điều 33 điều chỉnh giấy phép hành nghề 1 điều chỉnh giấy phép hành nghề đối với các chức danh bác sỹ y sỹ điều dưỡng hộ sinh kỹ thuật y dinh dưỡng lâm sàng cấp cứu viên ngoại viện và tâm lý lâm sàng khi bổ sung thay đổi phạm vi hành nghề khám bệnh chữa bệnh 2 điều kiệ...</code> | * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters: ```json { "scale": 20.0, "similarity_fct": "cos_sim" } ``` ### Training Hyperparameters #### Non-Default Hyperparameters - `per_device_train_batch_size`: 32 - `num_train_epochs`: 1 - `warmup_ratio`: 0.1 - `fp16`: True #### All Hyperparameters <details><summary>Click to expand</summary> - `overwrite_output_dir`: False - `do_predict`: False - `eval_strategy`: no - `prediction_loss_only`: True - `per_device_train_batch_size`: 32 - `per_device_eval_batch_size`: 8 - `per_gpu_train_batch_size`: None - `per_gpu_eval_batch_size`: None - `gradient_accumulation_steps`: 1 - `eval_accumulation_steps`: None - `torch_empty_cache_steps`: None - `learning_rate`: 5e-05 - `weight_decay`: 0.0 - `adam_beta1`: 0.9 - `adam_beta2`: 0.999 - `adam_epsilon`: 1e-08 - `max_grad_norm`: 1.0 - `num_train_epochs`: 1 - `max_steps`: -1 - `lr_scheduler_type`: linear - `lr_scheduler_kwargs`: {} - `warmup_ratio`: 0.1 - `warmup_steps`: 0 - `log_level`: passive - `log_level_replica`: warning - `log_on_each_node`: True - `logging_nan_inf_filter`: True - `save_safetensors`: True - `save_on_each_node`: False - `save_only_model`: False - `restore_callback_states_from_checkpoint`: False - `no_cuda`: False - `use_cpu`: False - `use_mps_device`: False - `seed`: 42 - `data_seed`: None - `jit_mode_eval`: False - `use_ipex`: False - `bf16`: False - `fp16`: True - `fp16_opt_level`: O1 - `half_precision_backend`: auto - `bf16_full_eval`: False - `fp16_full_eval`: False - `tf32`: None - `local_rank`: 0 - `ddp_backend`: None - `tpu_num_cores`: None - `tpu_metrics_debug`: False - `debug`: [] - `dataloader_drop_last`: False - `dataloader_num_workers`: 0 - `dataloader_prefetch_factor`: None - `past_index`: -1 - `disable_tqdm`: False - `remove_unused_columns`: True - `label_names`: None - `load_best_model_at_end`: False - `ignore_data_skip`: False - `fsdp`: [] - `fsdp_min_num_params`: 0 - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} - `fsdp_transformer_layer_cls_to_wrap`: None - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} - `deepspeed`: None - `label_smoothing_factor`: 0.0 - `optim`: adamw_torch - `optim_args`: None - `adafactor`: False - `group_by_length`: False - `length_column_name`: length - `ddp_find_unused_parameters`: None - `ddp_bucket_cap_mb`: None - `ddp_broadcast_buffers`: False - `dataloader_pin_memory`: True - `dataloader_persistent_workers`: False - `skip_memory_metrics`: True - `use_legacy_prediction_loop`: False - `push_to_hub`: False - `resume_from_checkpoint`: None - `hub_model_id`: None - `hub_strategy`: every_save - `hub_private_repo`: None - `hub_always_push`: False - `gradient_checkpointing`: False - `gradient_checkpointing_kwargs`: None - `include_inputs_for_metrics`: False - `include_for_metrics`: [] - `eval_do_concat_batches`: True - `fp16_backend`: auto - `push_to_hub_model_id`: None - `push_to_hub_organization`: None - `mp_parameters`: - `auto_find_batch_size`: False - `full_determinism`: False - `torchdynamo`: None - `ray_scope`: last - `ddp_timeout`: 1800 - `torch_compile`: False - `torch_compile_backend`: None - `torch_compile_mode`: None - `include_tokens_per_second`: False - `include_num_input_tokens_seen`: False - `neftune_noise_alpha`: None - `optim_target_modules`: None - `batch_eval_metrics`: False - `eval_on_start`: False - `use_liger_kernel`: False - `eval_use_gather_object`: False - `average_tokens_across_devices`: False - `prompts`: None - `batch_sampler`: batch_sampler - `multi_dataset_batch_sampler`: proportional </details> ### Training Logs | Epoch | Step | Training Loss | |:-----:|:----:|:-------------:| | 0.032 | 100 | 1.1356 | | 0.064 | 200 | 0.1415 | | 0.096 | 300 | 0.1214 | | 0.128 | 400 | 0.1223 | | 0.16 | 500 | 0.1217 | | 0.192 | 600 | 0.0905 | | 0.224 | 700 | 0.1161 | | 0.256 | 800 | 0.1062 | | 0.288 | 900 | 0.0963 | | 0.32 | 1000 | 0.0999 | | 0.352 | 1100 | 0.1094 | | 0.384 | 1200 | 0.0947 | | 0.416 | 1300 | 0.0836 | | 0.448 | 1400 | 0.0873 | | 0.48 | 1500 | 0.0845 | | 0.512 | 1600 | 0.0917 | | 0.544 | 1700 | 0.0777 | | 0.576 | 1800 | 0.0775 | | 0.608 | 1900 | 0.0827 | | 0.64 | 2000 | 0.0746 | | 0.672 | 2100 | 0.0722 | | 0.704 | 2200 | 0.0596 | | 0.736 | 2300 | 0.0693 | | 0.768 | 2400 | 0.0654 | | 0.8 | 2500 | 0.064 | | 0.832 | 2600 | 0.0795 | | 0.864 | 2700 | 0.0656 | | 0.896 | 2800 | 0.061 | | 0.928 | 2900 | 0.06 | | 0.96 | 3000 | 0.0551 | | 0.992 | 3100 | 0.0545 | ### Framework Versions - Python: 3.11.13 - Sentence Transformers: 4.1.0 - Transformers: 4.52.4 - PyTorch: 2.6.0+cu124 - Accelerate: 1.8.1 - Datasets: 3.6.0 - Tokenizers: 0.21.2 ## Citation ### BibTeX #### Sentence Transformers ```bibtex @inproceedings{reimers-2019-sentence-bert, title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", author = "Reimers, Nils and Gurevych, Iryna", booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", month = "11", year = "2019", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/1908.10084", } ``` #### MultipleNegativesRankingLoss ```bibtex @misc{henderson2017efficient, title={Efficient Natural Language Response Suggestion for Smart Reply}, author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil}, year={2017}, eprint={1705.00652}, archivePrefix={arXiv}, primaryClass={cs.CL} } ``` <!-- ## Glossary *Clearly define terms in order to be accessible across audiences.* --> <!-- ## Model Card Authors *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* --> <!-- ## Model Card Contact *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* -->
SwetaJena/llama-3.2-1B-elephant_numbers_student_12
SwetaJena
2025-08-20T07:07:14Z
0
0
transformers
[ "transformers", "safetensors", "text-generation-inference", "unsloth", "llama", "trl", "en", "base_model:unsloth/Llama-3.2-1B-Instruct", "base_model:finetune:unsloth/Llama-3.2-1B-Instruct", "license:apache-2.0", "endpoints_compatible", "region:us" ]
null
2025-08-20T07:07:09Z
--- base_model: unsloth/Llama-3.2-1B-Instruct tags: - text-generation-inference - transformers - unsloth - llama - trl license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** SwetaJena - **License:** apache-2.0 - **Finetuned from model :** unsloth/Llama-3.2-1B-Instruct This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
lautan/blockassist-bc-gentle_patterned_goat_1755671818
lautan
2025-08-20T07:06:52Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "gentle patterned goat", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T07:06:49Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - gentle patterned goat --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Camsouille/CM-UNet
Camsouille
2025-08-20T07:03:36Z
0
0
null
[ "medical-imaging", "segmentation", "self-supervised-learning", "coronary-artery", "unet", "arxiv:2507.17779", "license:apache-2.0", "region:us" ]
null
2025-08-16T09:31:21Z
--- license: apache-2.0 tags: - medical-imaging - segmentation - self-supervised-learning - coronary-artery - unet --- # Model Card for CM-UNet CM-UNet is a **UNet-based model** designed for **coronary artery segmentation** in X-Ray angiography. It leverages **self-supervised pretraining** on unannotated datasets and **transfer learning** on limited annotated data, reducing the need for large-scale manual annotations. --- ## Model Details - **Developed by:** Camille Challier et al. - **Model type:** UNet (convolutional encoder-decoder) - **License:** Apache-2.0 - **Tasks:** Coronary artery segmentation in X-Ray angiography images ### Model Sources - **Repository:** [GitHub](https://github.com/CamilleChallier/Contrastive-Masked-UNet) - **Paper:** [arXiv:2507.17779](https://arxiv.org/abs/2507.17779) --- ## Uses ### Direct Use - Intended for research and educational purposes in medical image segmentation. --- ## How to Get Started with the Model ```python import torch import numpy as np import matplotlib.pyplot as plt from PIL import Image from UNET.model import UNet # 1. Load model model = UNet() model.load_state_dict(torch.load("unet_weights.pth", map_location="cpu")) model.eval() # 2. Load an image (.npy format) arr = np.load("example.npy") # replace with your image path image = Image.fromarray(arr).resize((256, 256), resample=Image.BICUBIC) x = torch.from_numpy(np.asarray(image)).unsqueeze(0).float() # 3. Run inference with torch.no_grad(): logits = model(x) # 4. Postprocess → predicted mask pred_mask = torch.argmax(logits, dim=1).squeeze(0).numpy() # 5. Plot input and predicted mask fig, axs = plt.subplots(1, 2, figsize=(8, 4)) axs[0].imshow(arr, cmap="gray") axs[0].set_title("Input Image") axs[0].axis("off") axs[1].imshow(pred_mask, cmap="gray") axs[1].set_title("Predicted Mask") axs[1].axis("off") plt.show() ``` --- ## 📖 Citation If you find this work useful, please consider citing it: ```bibtex @misc{challier2025cmunetselfsupervisedlearningbasedmodel, title={CM-UNet: A Self-Supervised Learning-Based Model for Coronary Artery Segmentation in X-Ray Angiography}, author={Camille Challier and Xiaowu Sun and Thabo Mahendiran and Ortal Senouf and Bernard De Bruyne and Denise Auberson and Olivier Müller and Stephane Fournier and Pascal Frossard and Emmanuel Abbé and Dorina Thanou}, year={2025}, eprint={2507.17779}, archivePrefix={arXiv}, primaryClass={q-bio.QM}, url={https://arxiv.org/abs/2507.17779}, }
NotoriousH2/qwen3-1.7b-base-MED-Instruct
NotoriousH2
2025-08-20T07:03:09Z
0
0
transformers
[ "transformers", "safetensors", "qwen3", "text-generation", "trl", "sft", "conversational", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-20T07:00:53Z
--- library_name: transformers tags: - trl - sft --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
helmutsukocok/blockassist-bc-loud_scavenging_kangaroo_1755671520
helmutsukocok
2025-08-20T06:59:09Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "loud scavenging kangaroo", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:59:05Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - loud scavenging kangaroo --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
ihsanridzi/blockassist-bc-wiry_flexible_owl_1755671197
ihsanridzi
2025-08-20T06:53:10Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "wiry flexible owl", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:53:06Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - wiry flexible owl --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
sonspeed/bartpho-vietnews
sonspeed
2025-08-20T06:51:59Z
0
0
transformers
[ "transformers", "safetensors", "mbart", "text2text-generation", "generated_from_trainer", "base_model:vinai/bartpho-word", "base_model:finetune:vinai/bartpho-word", "license:mit", "endpoints_compatible", "region:us" ]
null
2025-08-19T19:28:40Z
--- library_name: transformers license: mit base_model: vinai/bartpho-word tags: - generated_from_trainer model-index: - name: bartpho-vietnews results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # bartpho-vietnews This model is a fine-tuned version of [vinai/bartpho-word](https://huggingface.co/vinai/bartpho-word) on an unknown dataset. ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 16 - eval_batch_size: 8 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: linear - num_epochs: 3 ### Training results ### Framework versions - Transformers 4.52.4 - Pytorch 2.6.0+cu124 - Datasets 3.6.0 - Tokenizers 0.21.2
LSDddd/my_awesome_video_cls_model
LSDddd
2025-08-20T06:51:22Z
0
0
transformers
[ "transformers", "safetensors", "videomae", "video-classification", "generated_from_trainer", "base_model:MCG-NJU/videomae-base", "base_model:finetune:MCG-NJU/videomae-base", "license:cc-by-nc-4.0", "endpoints_compatible", "region:us" ]
video-classification
2025-08-20T06:51:01Z
--- library_name: transformers license: cc-by-nc-4.0 base_model: MCG-NJU/videomae-base tags: - generated_from_trainer metrics: - accuracy model-index: - name: my_awesome_video_cls_model results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # my_awesome_video_cls_model This model is a fine-tuned version of [MCG-NJU/videomae-base](https://huggingface.co/MCG-NJU/videomae-base) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 1.1385 - Accuracy: 0.6429 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 1 - eval_batch_size: 1 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH_FUSED with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: linear - lr_scheduler_warmup_ratio: 0.1 - training_steps: 300 - mixed_precision_training: Native AMP ### Training results | Training Loss | Epoch | Step | Validation Loss | Accuracy | |:-------------:|:-----:|:----:|:---------------:|:--------:| | 1.1378 | 1.0 | 300 | 1.1385 | 0.6429 | ### Framework versions - Transformers 4.55.2 - Pytorch 2.8.0+cu126 - Datasets 4.0.0 - Tokenizers 0.21.4
mang3dd/blockassist-bc-tangled_slithering_alligator_1755671092
mang3dd
2025-08-20T06:50:51Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "tangled slithering alligator", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:50:48Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - tangled slithering alligator --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
lisaozill03/blockassist-bc-rugged_prickly_alpaca_1755670784
lisaozill03
2025-08-20T06:45:45Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "rugged prickly alpaca", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:45:41Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - rugged prickly alpaca --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
mohammadmahdinouri/final-moa-vanilla-30k
mohammadmahdinouri
2025-08-20T06:42:33Z
0
0
transformers
[ "transformers", "safetensors", "ModernALBERT", "fill-mask", "arxiv:1910.09700", "autotrain_compatible", "endpoints_compatible", "region:us" ]
fill-mask
2025-08-20T06:42:31Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
justinwoodring/Malicious-Qubits-QASM-Validator-Qwen-7B
justinwoodring
2025-08-20T06:40:49Z
0
0
transformers
[ "transformers", "safetensors", "text-generation-inference", "unsloth", "qwen2", "trl", "en", "base_model:unsloth/Qwen2.5-Coder-7B-bnb-4bit", "base_model:finetune:unsloth/Qwen2.5-Coder-7B-bnb-4bit", "license:apache-2.0", "endpoints_compatible", "region:us" ]
null
2025-08-15T02:32:26Z
--- base_model: unsloth/Qwen2.5-Coder-7B-bnb-4bit tags: - text-generation-inference - transformers - unsloth - qwen2 - trl license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** justinwoodring - **License:** apache-2.0 - **Finetuned from model :** unsloth/Qwen2.5-Coder-7B-bnb-4bit This qwen2 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
mohammadmahdinouri/final-moa-30k
mohammadmahdinouri
2025-08-20T06:40:44Z
0
0
transformers
[ "transformers", "safetensors", "ModernALBERT", "fill-mask", "arxiv:1910.09700", "autotrain_compatible", "endpoints_compatible", "region:us" ]
fill-mask
2025-08-20T06:40:41Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
sourishsharma17/newtintin
sourishsharma17
2025-08-20T06:36:42Z
0
0
diffusers
[ "diffusers", "text-to-image", "lora", "template:diffusion-lora", "base_model:black-forest-labs/FLUX.1-dev", "base_model:adapter:black-forest-labs/FLUX.1-dev", "license:mit", "region:us" ]
text-to-image
2025-08-20T06:36:37Z
--- tags: - text-to-image - lora - diffusers - template:diffusion-lora widget: - output: url: images/out-0-6.webp text: '-' base_model: black-forest-labs/FLUX.1-dev instance_prompt: TOK license: mit --- # newtintin <Gallery /> ## Trigger words You should use `TOK` to trigger the image generation. ## Download model [Download](/sourishsharma17/newtintin/tree/main) them in the Files & versions tab.
rayonlabs/tournament-tourn_e8b54a44823eb63b_20250819-0746e9d2-8da9-4255-98c3-9cad2ffa8040-5CqicZdx
rayonlabs
2025-08-20T06:35:15Z
0
0
peft
[ "peft", "safetensors", "arxiv:1910.09700", "base_model:unsloth/Qwen2-0.5B", "base_model:adapter:unsloth/Qwen2-0.5B", "region:us" ]
null
2025-08-20T06:35:08Z
--- base_model: unsloth/Qwen2-0.5B library_name: peft --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed] ### Framework versions - PEFT 0.15.2
roeker/blockassist-bc-quick_wiry_owl_1755671627
roeker
2025-08-20T06:35:02Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "quick wiry owl", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:34:30Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - quick wiry owl --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
sunnyceekay/blockassist-bc-graceful_bellowing_sealion_1755669247
sunnyceekay
2025-08-20T06:34:41Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "graceful bellowing sealion", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:34:38Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - graceful bellowing sealion --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
hakimjustbao/blockassist-bc-raging_subtle_wasp_1755669668
hakimjustbao
2025-08-20T06:33:08Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "raging subtle wasp", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:33:03Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - raging subtle wasp --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
sampingkaca72/blockassist-bc-armored_stealthy_elephant_1755669989
sampingkaca72
2025-08-20T06:31:43Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "armored stealthy elephant", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:31:40Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - armored stealthy elephant --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
launchpd3/blockassist-bc-polished_foxy_stingray_1755671239
launchpd3
2025-08-20T06:28:36Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "polished foxy stingray", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:28:23Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - polished foxy stingray --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
roeker/blockassist-bc-quick_wiry_owl_1755671226
roeker
2025-08-20T06:27:56Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "quick wiry owl", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:27:49Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - quick wiry owl --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
TharunSivamani/mcprl-7b-exa-lora
TharunSivamani
2025-08-20T06:26:57Z
0
0
transformers
[ "transformers", "safetensors", "text-generation-inference", "unsloth", "qwen2", "trl", "en", "license:apache-2.0", "endpoints_compatible", "region:us" ]
null
2025-08-20T06:26:39Z
--- base_model: unsloth/qwen2.5-7b-instruct-unsloth-bnb-4bit tags: - text-generation-inference - transformers - unsloth - qwen2 - trl license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** TharunSivamani - **License:** apache-2.0 - **Finetuned from model :** unsloth/qwen2.5-7b-instruct-unsloth-bnb-4bit This qwen2 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
bimabk/21aa9f58-1f69-4055-9211-a03c7007ec6e
bimabk
2025-08-20T06:26:46Z
0
0
peft
[ "peft", "safetensors", "base_model:adapter:TitanML/tiny-mixtral", "grpo", "lora", "transformers", "trl", "unsloth", "arxiv:1910.09700", "base_model:TitanML/tiny-mixtral", "region:us" ]
null
2025-08-20T06:26:44Z
--- base_model: TitanML/tiny-mixtral library_name: peft tags: - base_model:adapter:TitanML/tiny-mixtral - grpo - lora - transformers - trl - unsloth --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed] ### Framework versions - PEFT 0.17.0
manusiaperahu2012/blockassist-bc-roaring_long_tuna_1755669563
manusiaperahu2012
2025-08-20T06:26:31Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "roaring long tuna", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:26:28Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - roaring long tuna --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
coelacanthxyz/blockassist-bc-finicky_thriving_grouse_1755669343
coelacanthxyz
2025-08-20T06:25:29Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "finicky thriving grouse", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:25:22Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - finicky thriving grouse --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
unsloth/Qwen3-4B-Instruct-2507-GGUF
unsloth
2025-08-20T06:23:07Z
47,079
41
transformers
[ "transformers", "gguf", "qwen", "qwen3", "unsloth", "arxiv:2505.09388", "base_model:Qwen/Qwen3-4B-Instruct-2507", "base_model:quantized:Qwen/Qwen3-4B-Instruct-2507", "license:apache-2.0", "endpoints_compatible", "region:us", "conversational" ]
null
2025-08-06T19:21:40Z
--- library_name: transformers license: apache-2.0 license_link: https://huggingface.co/Qwen/Qwen3-4B-Instruct-2507/blob/main/LICENSE base_model: - Qwen/Qwen3-4B-Instruct-2507 tags: - qwen - qwen3 - unsloth --- <div> <p style="margin-bottom: 0; margin-top: 0;"> <strong>See <a href="https://huggingface.co/collections/unsloth/qwen3-680edabfb790c8c34a242f95">our collection</a> for all versions of Qwen3 including GGUF, 4-bit & 16-bit formats.</strong> </p> <p style="margin-bottom: 0;"> <em>Learn to run Qwen3-2507 correctly - <a href="https://docs.unsloth.ai/basics/qwen3-2507">Read our Guide</a>.</em> </p> <p style="margin-top: 0;margin-bottom: 0;"> <em><a href="https://docs.unsloth.ai/basics/unsloth-dynamic-v2.0-gguf">Unsloth Dynamic 2.0</a> achieves superior accuracy & outperforms other leading quants.</em> </p> <div style="display: flex; gap: 5px; align-items: center; "> <a href="https://github.com/unslothai/unsloth/"> <img src="https://github.com/unslothai/unsloth/raw/main/images/unsloth%20new%20logo.png" width="133"> </a> <a href="https://discord.gg/unsloth"> <img src="https://github.com/unslothai/unsloth/raw/main/images/Discord%20button.png" width="173"> </a> <a href="https://docs.unsloth.ai/basics/qwen3-2507"> <img src="https://raw.githubusercontent.com/unslothai/unsloth/refs/heads/main/images/documentation%20green%20button.png" width="143"> </a> </div> <h1 style="margin-top: 0rem;">✨ Read our Qwen3-2507 Guide <a href="https://docs.unsloth.ai/basics/qwen3-2507">here</a>!</h1> </div> - Fine-tune Qwen3 (14B) for free using our Google [Colab notebook here](https://docs.unsloth.ai/get-started/unsloth-notebooks)! - Read our Blog about Qwen3 support: [unsloth.ai/blog/qwen3](https://unsloth.ai/blog/qwen3) - View the rest of our notebooks in our [docs here](https://docs.unsloth.ai/get-started/unsloth-notebooks). - Run & export your fine-tuned model to Ollama, llama.cpp or HF. | Unsloth supports | Free Notebooks | Performance | Memory use | |-----------------|--------------------------------------------------------------------------------------------------------------------------|-------------|----------| | **Qwen3 (14B)** | [▶️ Start on Colab](https://docs.unsloth.ai/get-started/unsloth-notebooks) | 3x faster | 70% less | | **GRPO with Qwen3 (8B)** | [▶️ Start on Colab](https://docs.unsloth.ai/get-started/unsloth-notebooks) | 3x faster | 80% less | | **Llama-3.2 (3B)** | [▶️ Start on Colab](https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Llama3.2_(1B_and_3B)-Conversational.ipynb) | 2.4x faster | 58% less | | **Llama-3.2 (11B vision)** | [▶️ Start on Colab](https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Llama3.2_(11B)-Vision.ipynb) | 2x faster | 60% less | | **Qwen2.5 (7B)** | [▶️ Start on Colab](https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Qwen2.5_(7B)-Alpaca.ipynb) | 2x faster | 60% less | # Qwen3-4B-Instruct-2507 <a href="https://chat.qwen.ai" target="_blank" style="margin: 2px;"> <img alt="Chat" src="https://img.shields.io/badge/%F0%9F%92%9C%EF%B8%8F%20Qwen%20Chat%20-536af5" style="display: inline-block; vertical-align: middle;"/> </a> ## Highlights We introduce the updated version of the **Qwen3-4B non-thinking mode**, named **Qwen3-4B-Instruct-2507**, featuring the following key enhancements: - **Significant improvements** in general capabilities, including **instruction following, logical reasoning, text comprehension, mathematics, science, coding and tool usage**. - **Substantial gains** in long-tail knowledge coverage across **multiple languages**. - **Markedly better alignment** with user preferences in **subjective and open-ended tasks**, enabling more helpful responses and higher-quality text generation. - **Enhanced capabilities** in **256K long-context understanding**. ![image/jpeg](https://qianwen-res.oss-accelerate.aliyuncs.com/Qwen3-2507/Qwen3-4B-Instruct.001.jpeg) ## Model Overview **Qwen3-4B-Instruct-2507** has the following features: - Type: Causal Language Models - Training Stage: Pretraining & Post-training - Number of Parameters: 4.0B - Number of Paramaters (Non-Embedding): 3.6B - Number of Layers: 36 - Number of Attention Heads (GQA): 32 for Q and 8 for KV - Context Length: **262,144 natively**. **NOTE: This model supports only non-thinking mode and does not generate ``<think></think>`` blocks in its output. Meanwhile, specifying `enable_thinking=False` is no longer required.** For more details, including benchmark evaluation, hardware requirements, and inference performance, please refer to our [blog](https://qwenlm.github.io/blog/qwen3/), [GitHub](https://github.com/QwenLM/Qwen3), and [Documentation](https://qwen.readthedocs.io/en/latest/). ## Performance | | GPT-4.1-nano-2025-04-14 | Qwen3-30B-A3B Non-Thinking | Qwen3-4B Non-Thinking | Qwen3-4B-Instruct-2507 | |--- | --- | --- | --- | --- | | **Knowledge** | | | | | MMLU-Pro | 62.8 | 69.1 | 58.0 | **69.6** | | MMLU-Redux | 80.2 | 84.1 | 77.3 | **84.2** | | GPQA | 50.3 | 54.8 | 41.7 | **62.0** | | SuperGPQA | 32.2 | 42.2 | 32.0 | **42.8** | | **Reasoning** | | | | | AIME25 | 22.7 | 21.6 | 19.1 | **47.4** | | HMMT25 | 9.7 | 12.0 | 12.1 | **31.0** | | ZebraLogic | 14.8 | 33.2 | 35.2 | **80.2** | | LiveBench 20241125 | 41.5 | 59.4 | 48.4 | **63.0** | | **Coding** | | | | | LiveCodeBench v6 (25.02-25.05) | 31.5 | 29.0 | 26.4 | **35.1** | | MultiPL-E | 76.3 | 74.6 | 66.6 | **76.8** | | Aider-Polyglot | 9.8 | **24.4** | 13.8 | 12.9 | | **Alignment** | | | | | IFEval | 74.5 | **83.7** | 81.2 | 83.4 | | Arena-Hard v2* | 15.9 | 24.8 | 9.5 | **43.4** | | Creative Writing v3 | 72.7 | 68.1 | 53.6 | **83.5** | | WritingBench | 66.9 | 72.2 | 68.5 | **83.4** | | **Agent** | | | | | BFCL-v3 | 53.0 | 58.6 | 57.6 | **61.9** | | TAU1-Retail | 23.5 | 38.3 | 24.3 | **48.7** | | TAU1-Airline | 14.0 | 18.0 | 16.0 | **32.0** | | TAU2-Retail | - | 31.6 | 28.1 | **40.4** | | TAU2-Airline | - | 18.0 | 12.0 | **24.0** | | TAU2-Telecom | - | **18.4** | 17.5 | 13.2 | | **Multilingualism** | | | | | MultiIF | 60.7 | **70.8** | 61.3 | 69.0 | | MMLU-ProX | 56.2 | **65.1** | 49.6 | 61.6 | | INCLUDE | 58.6 | **67.8** | 53.8 | 60.1 | | PolyMATH | 15.6 | 23.3 | 16.6 | **31.1** | *: For reproducibility, we report the win rates evaluated by GPT-4.1. ## Quickstart The code of Qwen3 has been in the latest Hugging Face `transformers` and we advise you to use the latest version of `transformers`. With `transformers<4.51.0`, you will encounter the following error: ``` KeyError: 'qwen3' ``` The following contains a code snippet illustrating how to use the model generate content based on given inputs. ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/Qwen3-4B-Instruct-2507" # load the tokenizer and the model tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype="auto", device_map="auto" ) # prepare the model input prompt = "Give me a short introduction to large language model." messages = [ {"role": "user", "content": prompt} ] text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True, ) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) # conduct text completion generated_ids = model.generate( **model_inputs, max_new_tokens=16384 ) output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist() content = tokenizer.decode(output_ids, skip_special_tokens=True) print("content:", content) ``` For deployment, you can use `sglang>=0.4.6.post1` or `vllm>=0.8.5` or to create an OpenAI-compatible API endpoint: - SGLang: ```shell python -m sglang.launch_server --model-path Qwen/Qwen3-4B-Instruct-2507 --context-length 262144 ``` - vLLM: ```shell vllm serve Qwen/Qwen3-4B-Instruct-2507 --max-model-len 262144 ``` **Note: If you encounter out-of-memory (OOM) issues, consider reducing the context length to a shorter value, such as `32,768`.** For local use, applications such as Ollama, LMStudio, MLX-LM, llama.cpp, and KTransformers have also supported Qwen3. ## Agentic Use Qwen3 excels in tool calling capabilities. We recommend using [Qwen-Agent](https://github.com/QwenLM/Qwen-Agent) to make the best use of agentic ability of Qwen3. Qwen-Agent encapsulates tool-calling templates and tool-calling parsers internally, greatly reducing coding complexity. To define the available tools, you can use the MCP configuration file, use the integrated tool of Qwen-Agent, or integrate other tools by yourself. ```python from qwen_agent.agents import Assistant # Define LLM llm_cfg = { 'model': 'Qwen3-4B-Instruct-2507', # Use a custom endpoint compatible with OpenAI API: 'model_server': 'http://localhost:8000/v1', # api_base 'api_key': 'EMPTY', } # Define Tools tools = [ {'mcpServers': { # You can specify the MCP configuration file 'time': { 'command': 'uvx', 'args': ['mcp-server-time', '--local-timezone=Asia/Shanghai'] }, "fetch": { "command": "uvx", "args": ["mcp-server-fetch"] } } }, 'code_interpreter', # Built-in tools ] # Define Agent bot = Assistant(llm=llm_cfg, function_list=tools) # Streaming generation messages = [{'role': 'user', 'content': 'https://qwenlm.github.io/blog/ Introduce the latest developments of Qwen'}] for responses in bot.run(messages=messages): pass print(responses) ``` ## Best Practices To achieve optimal performance, we recommend the following settings: 1. **Sampling Parameters**: - We suggest using `Temperature=0.7`, `TopP=0.8`, `TopK=20`, and `MinP=0`. - For supported frameworks, you can adjust the `presence_penalty` parameter between 0 and 2 to reduce endless repetitions. However, using a higher value may occasionally result in language mixing and a slight decrease in model performance. 2. **Adequate Output Length**: We recommend using an output length of 16,384 tokens for most queries, which is adequate for instruct models. 3. **Standardize Output Format**: We recommend using prompts to standardize model outputs when benchmarking. - **Math Problems**: Include "Please reason step by step, and put your final answer within \boxed{}." in the prompt. - **Multiple-Choice Questions**: Add the following JSON structure to the prompt to standardize responses: "Please show your choice in the `answer` field with only the choice letter, e.g., `"answer": "C"`." ### Citation If you find our work helpful, feel free to give us a cite. ``` @misc{qwen3technicalreport, title={Qwen3 Technical Report}, author={Qwen Team}, year={2025}, eprint={2505.09388}, archivePrefix={arXiv}, primaryClass={cs.CL}, url={https://arxiv.org/abs/2505.09388}, } ```
mang3dd/blockassist-bc-tangled_slithering_alligator_1755669263
mang3dd
2025-08-20T06:20:55Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "tangled slithering alligator", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:20:51Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - tangled slithering alligator --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
diffusers-internal-dev/gemini-prompt-expander
diffusers-internal-dev
2025-08-20T06:19:43Z
0
1
diffusers
[ "diffusers", "custom_code", "arxiv:1910.09700", "region:us" ]
null
2025-08-08T11:24:00Z
--- library_name: diffusers --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🧨 diffusers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
ihsanridzi/blockassist-bc-wiry_flexible_owl_1755669163
ihsanridzi
2025-08-20T06:19:22Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "wiry flexible owl", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:19:19Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - wiry flexible owl --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Ruthwik/Medical-Audio-Visual-VQA
Ruthwik
2025-08-20T06:13:33Z
0
0
transformers
[ "transformers", "safetensors", "advanced_medical_vqa", "arxiv:1910.09700", "endpoints_compatible", "region:us" ]
null
2025-08-20T06:12:36Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
Priyasi/Pretrain_TransVi_3
Priyasi
2025-08-20T06:13:27Z
0
0
null
[ "safetensors", "bert", "custom_code", "license:apache-2.0", "region:us" ]
null
2025-08-06T04:15:14Z
--- license: apache-2.0 ---
arianaazarbal/test_push-20250820_060407-policy-adapter
arianaazarbal
2025-08-20T06:07:55Z
0
0
null
[ "safetensors", "region:us" ]
null
2025-08-20T06:06:57Z
# Policy Model LoRA Adapter (GRPO/DPO) Experiment: test_push Timestamp: 20250820_060407 This model was trained as part of the deception-evasion-honesty experiments. ## Model Details - **Type**: Policy Model LoRA Adapter (GRPO/DPO) - **Experiment Name**: test_push - **Training Timestamp**: 20250820_060407
arianaazarbal/test_push-20250820_060407-sft-adapter
arianaazarbal
2025-08-20T06:06:19Z
0
0
null
[ "pytorch", "region:us" ]
null
2025-08-20T06:05:17Z
# SFT LoRA Adapter Experiment: test_push Timestamp: 20250820_060407 This model was trained as part of the deception-evasion-honesty experiments. ## Model Details - **Type**: SFT LoRA Adapter - **Experiment Name**: test_push - **Training Timestamp**: 20250820_060407
arianaazarbal/test_push-20250820_060407-lr-detector
arianaazarbal
2025-08-20T06:05:17Z
0
0
null
[ "region:us" ]
null
2025-08-20T06:05:15Z
# Logistic Regression Lie Detector Experiment: test_push Timestamp: 20250820_060407 This model was trained as part of the deception-evasion-honesty experiments. ## Model Details - **Type**: Logistic Regression Lie Detector - **Experiment Name**: test_push - **Training Timestamp**: 20250820_060407
Uppal-Farm-Girl-Viral-Video-Link-Orginal/18.videos.Uppal.Farm.Girl.Viral.Video.Official
Uppal-Farm-Girl-Viral-Video-Link-Orginal
2025-08-20T06:03:55Z
0
0
null
[ "region:us" ]
null
2025-08-20T06:03:31Z
<animated-image data-catalyst=""><a href="https://tinyurl.com/5xr5mb3e?leaked-videos/" rel="nofollow" data-target="animated-image.originalLink"><img src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" alt="Foo" data-canonical-src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" style="max-width: 100%; display: inline-block;" data-target="animated-image.originalImage"></a>
maradar/Qwen2.5-0.5B-Instruct-Gensyn-Swarm-patterned_savage_ant
maradar
2025-08-20T06:03:04Z
99
0
transformers
[ "transformers", "safetensors", "qwen2", "text-generation", "rl-swarm", "genrl-swarm", "grpo", "gensyn", "I am patterned_savage_ant", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-03T08:57:38Z
--- library_name: transformers tags: - rl-swarm - genrl-swarm - grpo - gensyn - I am patterned_savage_ant --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
joanna302/Qwen3-8B-Base_ar_alpaca_0.33_part_SFT_2e-05
joanna302
2025-08-20T06:02:19Z
0
0
transformers
[ "transformers", "safetensors", "qwen3", "text-generation", "generated_from_trainer", "sft", "trl", "unsloth", "conversational", "base_model:unsloth/Qwen3-8B-Base", "base_model:finetune:unsloth/Qwen3-8B-Base", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-17T17:59:38Z
--- base_model: unsloth/Qwen3-8B-Base library_name: transformers model_name: Qwen3-8B-Base_ar_alpaca_0.33_part_SFT_2e-05 tags: - generated_from_trainer - sft - trl - unsloth licence: license --- # Model Card for Qwen3-8B-Base_ar_alpaca_0.33_part_SFT_2e-05 This model is a fine-tuned version of [unsloth/Qwen3-8B-Base](https://huggingface.co/unsloth/Qwen3-8B-Base). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="joanna302/Qwen3-8B-Base_ar_alpaca_0.33_part_SFT_2e-05", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-8B-Base_ar_alpaca_0.33_part_SFT_2e-05/runs/4kdponw1) This model was trained with SFT. ### Framework versions - TRL: 0.21.0 - Transformers: 4.55.2 - Pytorch: 2.8.0 - Datasets: 3.6.0 - Tokenizers: 0.21.4 ## Citations Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
zypchn/swin-small-patch4-window7-224
zypchn
2025-08-20T06:01:25Z
0
0
transformers
[ "transformers", "safetensors", "swin", "image-classification", "generated_from_trainer", "base_model:microsoft/swin-small-patch4-window7-224", "base_model:finetune:microsoft/swin-small-patch4-window7-224", "license:apache-2.0", "autotrain_compatible", "endpoints_compatible", "region:us" ]
image-classification
2025-08-20T06:01:18Z
--- library_name: transformers license: apache-2.0 base_model: microsoft/swin-small-patch4-window7-224 tags: - generated_from_trainer metrics: - accuracy - precision - f1 model-index: - name: swin-small-patch4-window7-224 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # swin-small-patch4-window7-224 This model is a fine-tuned version of [microsoft/swin-small-patch4-window7-224](https://huggingface.co/microsoft/swin-small-patch4-window7-224) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 0.1892 - Accuracy: 0.9778 - Precision: 0.9804 - Sensitivity: 1.0 - Specificity: 0.9733 - F1: 0.9783 - Auc: 0.9909 - Mcc: 0.9267 - J Stat: 0.9733 - Confusion Matrix: [[146, 4], [0, 30]] ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 8.068420130106194e-05 - train_batch_size: 32 - eval_batch_size: 32 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: linear - lr_scheduler_warmup_ratio: 0.06206076180207542 - num_epochs: 10 - label_smoothing_factor: 0.06417838785936565 ### Training results | Training Loss | Epoch | Step | Validation Loss | Accuracy | Precision | Sensitivity | Specificity | F1 | Auc | Mcc | J Stat | Confusion Matrix | |:-------------:|:-----:|:----:|:---------------:|:--------:|:---------:|:-----------:|:-----------:|:------:|:------:|:------:|:------:|:------------------------:| | No log | 1.0 | 47 | 0.2904 | 0.9228 | 0.9256 | 0.7333 | 0.9892 | 0.9191 | 0.9754 | 0.7944 | 0.7225 | [[1100, 12], [104, 286]] | | 0.4216 | 2.0 | 94 | 0.2247 | 0.9634 | 0.9640 | 0.8769 | 0.9937 | 0.9627 | 0.9866 | 0.9038 | 0.8706 | [[1105, 7], [48, 342]] | | 0.2859 | 3.0 | 141 | 0.2064 | 0.9800 | 0.9800 | 0.9410 | 0.9937 | 0.9799 | 0.9914 | 0.9477 | 0.9347 | [[1105, 7], [23, 367]] | | 0.2231 | 4.0 | 188 | 0.1778 | 0.9847 | 0.9847 | 0.9513 | 0.9964 | 0.9846 | 0.9956 | 0.9600 | 0.9477 | [[1108, 4], [19, 371]] | | 0.1986 | 5.0 | 235 | 0.1590 | 0.9933 | 0.9933 | 0.9872 | 0.9955 | 0.9933 | 0.9982 | 0.9827 | 0.9827 | [[1107, 5], [5, 385]] | | 0.174 | 6.0 | 282 | 0.1484 | 0.9973 | 0.9973 | 0.9923 | 0.9991 | 0.9973 | 0.9995 | 0.9931 | 0.9914 | [[1111, 1], [3, 387]] | | 0.1526 | 7.0 | 329 | 0.1469 | 0.9980 | 0.9980 | 0.9949 | 0.9991 | 0.9980 | 0.9999 | 0.9948 | 0.9940 | [[1111, 1], [2, 388]] | | 0.1518 | 8.0 | 376 | 0.1461 | 0.9987 | 0.9987 | 0.9949 | 1.0 | 0.9987 | 0.9997 | 0.9965 | 0.9949 | [[1112, 0], [2, 388]] | | 0.148 | 9.0 | 423 | 0.1459 | 0.9987 | 0.9987 | 0.9949 | 1.0 | 0.9987 | 1.0000 | 0.9965 | 0.9949 | [[1112, 0], [2, 388]] | | 0.1496 | 10.0 | 470 | 0.1458 | 0.9987 | 0.9987 | 0.9949 | 1.0 | 0.9987 | 1.0000 | 0.9965 | 0.9949 | [[1112, 0], [2, 388]] | ### Framework versions - Transformers 4.52.4 - Pytorch 2.6.0+cu124 - Datasets 4.0.0 - Tokenizers 0.21.2
roeker/blockassist-bc-quick_wiry_owl_1755669589
roeker
2025-08-20T06:00:37Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "quick wiry owl", "arxiv:2504.07091", "region:us" ]
null
2025-08-20T06:00:31Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - quick wiry owl --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).