Aurora-1.0-Hermes-3.1-8B-PTBR

Aurora Ecosystem

Aurora-1.0-Hermes-3.1-8B-PTBR é um modelo de linguagem focado em Roleplay (Interpretação de Personagens) e Escrita Criativa totalmente em Português do Brasil.

Esta é a versão Full Weights (Safetensors) em 16-bit.

Ele foi treinado utilizando a técnica Unsloth sobre o modelo base Hermes-3-Llama-3.1-8B-lorablated, herdando sua capacidade de seguir instruções complexas e sua natureza "uncensored" (sem recusas excessivas), mas refinado para a cultura e idioma brasileiro.

🌟 Destaques

  • Nativo em PT-BR: Treinado com um dataset sintético de alta qualidade contendo diálogos culturalmente relevantes.
  • Foco em Roleplay: Especializado em manter personagens, narrar ações e expressar emoções de forma natural.
  • Base Hermes 3: Capacidade superior de raciocínio e aderência ao personagem.
  • Full Precision: Pesos originais em FP16, sem perda de qualidade por quantização.

🛠️ Detalhes do Modelo

  • Arquitetura: Llama 3.1 (8 Bilhões de Parâmetros)
  • Modelo Base: mlabonne/Hermes-3-Llama-3.1-8B-lorablated
  • Método de Treino: QLoRA via Unsloth (Mergeado para FP16)
  • Contexto: 8192 tokens (expansível até 128k via RoPE scaling)
  • Formato de Prompt: ChatML

💻 Como Usar (Python / Transformers)

Instalação

pip install transformers torch accelerate

Código de Exemplo

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

model_id = "wilsondesouza/Aurora-1.0-Hermes-3.1-8B-PTBR"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.float16,
    device_map="auto",
)

messages = [
    {"role": "system", "content": "Você é um assistente criativo que interpreta personagens."},
    {"role": "user", "content": "Olá, quem é você?"},
]

input_ids = tokenizer.apply_chat_template(
    messages, 
    add_generation_prompt=True, 
    return_tensors="pt"
).to(model.device)

outputs = model.generate(
    input_ids,
    max_new_tokens=512,
    temperature=0.7,
    top_p=0.9,
    do_sample=True
)

print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))

📊 Dados de Treinamento

O modelo foi treinado em um dataset sintético proprietário ("Aurora Dataset Roleplay PT-BR") que simula interações entre usuários e assistentes em diversos cenários. Mais informações aqui

⚠️ Limitações e Ética

  • Conteúdo Não Censurado: Como derivado do Hermes-3 Abliterated, este modelo possui poucas travas de segurança. Ele pode gerar conteúdo adulto, violento ou controverso se instruído a fazê-lo. O uso é de inteira responsabilidade do usuário.
  • Alucinações: Como todo LLM, pode gerar informações factualmente incorretas.

🤝 Créditos

Downloads last month
52
Safetensors
Model size
8B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for wilsondesouza/Aurora-1.0-Hermes-3.1-8B-PTBR

Dataset used to train wilsondesouza/Aurora-1.0-Hermes-3.1-8B-PTBR