Created by hawa Al-Akram

StarO AI (ستارو AI)

أول نموذج لغوي عربي يُبنى من الصفر على يد مطور اسمه حوة احمد الأكرم عمره 15 سنة

من الجلفة، الجزائر


Age Location Status License
HuggingFace GitHub

StarO AI نومباي هو مشروع صمم من الصفر باستعمال باي تورش (خام)، بدون استعمال

وليس مجرد تهيئة لنماذج جاهزة.

يقوم على هذا المشروع شاب جزائري عمره 15 سنة واسمه حوة احمد الأكرم .

إمكانياته المتواضعة: Intel i3-4130، 4GB RAM، HDD 2010.


عيوب الحالية لي نموذج من اقدم الى احدث

  • ملاحضة ستارو للأن في مرحلة خرشبة ونتطور كل اسبوع تقريبا اي ملاحظة لي تطوير قسم ممناقشات وسأرد في اسرع وقت.

كيف تطور

المرحلة التاريخ التفاصيل
انطلاق الفكرة (بحث) 28 جوان 2025 بداية التجربة والبحث في النماذج الأخرى
بداية التطوير الفعلي 3 ديسمبر 2025 انطلاق الفكرة الفعلية وبداية كتابة الكود من الصفر
الإصدار التجريبي 29 جانفي 2026 إصدار v2.5-Super (22 MB)
الإصدار الحالي 29 مارس 2026 إصدار v2.65-Super (221 MB) مع مفردات موسعة وهندسة محسّنة
العتاد المستخدم طوال الرحلة Intel i3-4130، 4GB RAM، HDD 2010
إجمالي ساعات العمل - أكثر من 550 ساعة من التطوير والاختبار
مجالات الاهتمام - تعلم الآلة، النماذج اللغوية مفتوحة المصدر، تطوير الذكاء الاصطناعي للغة العربية

المميزات الرئيسية

  • مبني من الصفر - كُتب الكود بالكامل بدون الاعتماد على نماذج جاهزة
  • دعم العربية - فهم وإنتاج النصوص العربية الفصحى والعامية
  • موارد محدودة - صُمم ليعمل على أجهزة متواضعة (حتى 4GB RAM)

المواصفات التقنية (StarO AI v2.65-Super)

الخاصية القيمة
المعمارية ModelStarOLMhead + BitLinear
عدد الطبقات (n_layer) 6
حجم التضمين (n_embd) 1024
عدد رؤوس الانتباه (n_head) 16
حجم السياق (n_ctx) 512
حجم المفردات (vocab_size) 56662
دالة التنشيط gelu_new
نوع البيانات float32
عدد المعاملات 192 مليون
حجم الأوزان 221 MB
عرض ملف الإعدادات الكامل (JSON) جديد
{
  "_class_name": "ModelStarOLMhead",
  "activation_function": "gelu_new",
  "architectures": [
    "ModelStarOLMhead"
  ],
  "attn_pdrop": 0.1,
  "bos_token_id": 0,
  "dtype": "float32",
  "embd_pdrop": 0.1,
  "eos_token_id": 1,
  "initializer_range": 0.02,
  "layer_norm_epsilon": 1e-05,
  "model_type": "staro",
  "n_ctx": 512,
  "n_embd": 1024,
  "n_head": 16,
  "n_inner": null,
  "n_layer": 6,
  "n_positions": 1024,
  "pad_token_id": 1,
  "reorder_and_upcast_attn": false,
  "resid_pdrop": 0.1,
  "scale_attn_by_inverse_layer_idx": false,
  "scale_attn_weights": true,
  "summary_activation": null,
  "summary_first_dropout": 0.1,
  "summary_proj_to_labels": true,
  "summary_type": "cls_index",
  "summary_use_proj": true,
  "transformers_version": "4.57.3",
  "use_cache": true,
  "vocab_size": 56662
}
<details>

عرض ملف الإعدادات الكامل (JSON) قديم</summary>

```json
{
    "_class_name": "ModelStarOLMhead",
    "activation_function": "gelu_new",
    "architectures": ["ModelStarOLMhead"],
    "attn_pdrop": 0.1,
    "bos_token_id": 0,
    "dtype": "float32",
    "embd_pdrop": 0.1,
    "eos_token_id": 1,
    "initializer_range": 0.02,
    "layer_norm_epsilon": 1e-05,
    "model_type": "staro",
    "n_ctx": 512,
    "n_embd": 1024,
    "n_head": 16,
    "n_inner": null,
    "n_layer": 10,
    "n_positions": 1024,
    "pad_token_id": 1,
    "resid_pdrop": 0.1,
    "vocab_size": 40000
}
Downloads last month
4,918
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Hawa-Al-Akram/StarO-Ai

Unable to build the model tree, the base model loops to the model itself. Learn more.