StarO AI (ستارو AI)
أول نموذج لغوي عربي يُبنى من الصفر على يد مطور اسمه حوة احمد الأكرم عمره 15 سنة
من الجلفة، الجزائر
StarO AI نومباي هو مشروع صمم من الصفر باستعمال باي تورش (خام)، بدون استعمال
وليس مجرد تهيئة لنماذج جاهزة.
يقوم على هذا المشروع شاب جزائري عمره 15 سنة واسمه حوة احمد الأكرم .
إمكانياته المتواضعة: Intel i3-4130، 4GB RAM، HDD 2010.
عيوب الحالية لي نموذج من اقدم الى احدث
- ملاحضة ستارو للأن في مرحلة خرشبة ونتطور كل اسبوع تقريبا اي ملاحظة لي تطوير قسم ممناقشات وسأرد في اسرع وقت.
كيف تطور
| المرحلة | التاريخ | التفاصيل |
|---|---|---|
| انطلاق الفكرة (بحث) | 28 جوان 2025 | بداية التجربة والبحث في النماذج الأخرى |
| بداية التطوير الفعلي | 3 ديسمبر 2025 | انطلاق الفكرة الفعلية وبداية كتابة الكود من الصفر |
| الإصدار التجريبي | 29 جانفي 2026 | إصدار v2.5-Super (22 MB) |
| الإصدار الحالي | 29 مارس 2026 | إصدار v2.65-Super (221 MB) مع مفردات موسعة وهندسة محسّنة |
| العتاد المستخدم | طوال الرحلة | Intel i3-4130، 4GB RAM، HDD 2010 |
| إجمالي ساعات العمل | - | أكثر من 550 ساعة من التطوير والاختبار |
| مجالات الاهتمام | - | تعلم الآلة، النماذج اللغوية مفتوحة المصدر، تطوير الذكاء الاصطناعي للغة العربية |
المميزات الرئيسية
- مبني من الصفر - كُتب الكود بالكامل بدون الاعتماد على نماذج جاهزة
- دعم العربية - فهم وإنتاج النصوص العربية الفصحى والعامية
- موارد محدودة - صُمم ليعمل على أجهزة متواضعة (حتى 4GB RAM)
المواصفات التقنية (StarO AI v2.65-Super)
| الخاصية | القيمة |
|---|---|
| المعمارية | ModelStarOLMhead + BitLinear |
| عدد الطبقات (n_layer) | 6 |
| حجم التضمين (n_embd) | 1024 |
| عدد رؤوس الانتباه (n_head) | 16 |
| حجم السياق (n_ctx) | 512 |
| حجم المفردات (vocab_size) | 56662 |
| دالة التنشيط | gelu_new |
| نوع البيانات | float32 |
| عدد المعاملات | 192 مليون |
| حجم الأوزان | 221 MB |
عرض ملف الإعدادات الكامل (JSON) جديد
{
"_class_name": "ModelStarOLMhead",
"activation_function": "gelu_new",
"architectures": [
"ModelStarOLMhead"
],
"attn_pdrop": 0.1,
"bos_token_id": 0,
"dtype": "float32",
"embd_pdrop": 0.1,
"eos_token_id": 1,
"initializer_range": 0.02,
"layer_norm_epsilon": 1e-05,
"model_type": "staro",
"n_ctx": 512,
"n_embd": 1024,
"n_head": 16,
"n_inner": null,
"n_layer": 6,
"n_positions": 1024,
"pad_token_id": 1,
"reorder_and_upcast_attn": false,
"resid_pdrop": 0.1,
"scale_attn_by_inverse_layer_idx": false,
"scale_attn_weights": true,
"summary_activation": null,
"summary_first_dropout": 0.1,
"summary_proj_to_labels": true,
"summary_type": "cls_index",
"summary_use_proj": true,
"transformers_version": "4.57.3",
"use_cache": true,
"vocab_size": 56662
}
<details>
عرض ملف الإعدادات الكامل (JSON) قديم</summary>
```json
{
"_class_name": "ModelStarOLMhead",
"activation_function": "gelu_new",
"architectures": ["ModelStarOLMhead"],
"attn_pdrop": 0.1,
"bos_token_id": 0,
"dtype": "float32",
"embd_pdrop": 0.1,
"eos_token_id": 1,
"initializer_range": 0.02,
"layer_norm_epsilon": 1e-05,
"model_type": "staro",
"n_ctx": 512,
"n_embd": 1024,
"n_head": 16,
"n_inner": null,
"n_layer": 10,
"n_positions": 1024,
"pad_token_id": 1,
"resid_pdrop": 0.1,
"vocab_size": 40000
}
- Downloads last month
- 4,918
Model tree for Hawa-Al-Akram/StarO-Ai
Unable to build the model tree, the base model loops to the model itself. Learn more.