Aurora-1.0-Hermes-3.1-8B-PTBR
Aurora-1.0-Hermes-3.1-8B-PTBR é um modelo de linguagem focado em Roleplay (Interpretação de Personagens) e Escrita Criativa totalmente em Português do Brasil.
Esta é a versão Full Weights (Safetensors) em 16-bit.
Ele foi treinado utilizando a técnica Unsloth sobre o modelo base Hermes-3-Llama-3.1-8B-lorablated, herdando sua capacidade de seguir instruções complexas e sua natureza "uncensored" (sem recusas excessivas), mas refinado para a cultura e idioma brasileiro.
🌟 Destaques
- Nativo em PT-BR: Treinado com um dataset sintético de alta qualidade contendo diálogos culturalmente relevantes.
- Foco em Roleplay: Especializado em manter personagens, narrar ações e expressar emoções de forma natural.
- Base Hermes 3: Capacidade superior de raciocínio e aderência ao personagem.
- Full Precision: Pesos originais em FP16, sem perda de qualidade por quantização.
🛠️ Detalhes do Modelo
- Arquitetura: Llama 3.1 (8 Bilhões de Parâmetros)
- Modelo Base:
mlabonne/Hermes-3-Llama-3.1-8B-lorablated - Método de Treino: QLoRA via Unsloth (Mergeado para FP16)
- Contexto: 8192 tokens (expansível até 128k via RoPE scaling)
- Formato de Prompt: ChatML
💻 Como Usar (Python / Transformers)
Instalação
pip install transformers torch accelerate
Código de Exemplo
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "wilsondesouza/Aurora-1.0-Hermes-3.1-8B-PTBR"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.float16,
device_map="auto",
)
messages = [
{"role": "system", "content": "Você é um assistente criativo que interpreta personagens."},
{"role": "user", "content": "Olá, quem é você?"},
]
input_ids = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
outputs = model.generate(
input_ids,
max_new_tokens=512,
temperature=0.7,
top_p=0.9,
do_sample=True
)
print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))
📊 Dados de Treinamento
O modelo foi treinado em um dataset sintético proprietário ("Aurora Dataset Roleplay PT-BR") que simula interações entre usuários e assistentes em diversos cenários. Mais informações aqui
⚠️ Limitações e Ética
- Conteúdo Não Censurado: Como derivado do Hermes-3 Abliterated, este modelo possui poucas travas de segurança. Ele pode gerar conteúdo adulto, violento ou controverso se instruído a fazê-lo. O uso é de inteira responsabilidade do usuário.
- Alucinações: Como todo LLM, pode gerar informações factualmente incorretas.
🤝 Créditos
- Base Model: Nous Research & Maxime Labonne
- Training Tool: Unsloth AI
- Fine-Tuning & Dataset: Wilson de Souza (Aurora Ecosystem)
- Downloads last month
- 52
Model tree for wilsondesouza/Aurora-1.0-Hermes-3.1-8B-PTBR
Base model
meta-llama/Llama-3.1-8B
Finetuned
NousResearch/Hermes-3-Llama-3.1-8B