A TII bemutatja a Falcon Reasoning-et: a világszerte legjobb 7B mesterséges intelligencia modellt, amely a nagyobb modelleket is felülmúlja
A TII bemutatja a Falcon Reasoning-et: a világszerte legjobb 7B mesterséges intelligencia modellt, amely a nagyobb modelleket is felülmúlja
- A Falcon H1R 7B fejlett logikai gondolkodást kínál egy kompakt, sebességre és hatékonyságra optimalizált 7 milliárd paraméteres modellben
- A TII legújabb mesterséges intelligencia modellje kulcsfontosságú a referenciaértékeket illetően felülmúlja a főbb riválisokat, mint például a Microsoftot, az Alibabát és az NVIDIA-t
ABU DHABI, Egyesült Arab Emírségek--(BUSINESS WIRE)--A Technológiai Innovációs Intézet (TII), az Abu Dhabi Fejlett Technológiai Kutatótanácsának (ATRC) alkalmazott kutatási pillére bejelentette a Falcon H1R 7B, következő generációs mesterséges intelligencia modell bemutatását, amely jelentős lépést tesz a fejlett mesterséges intelligencia (AI) minden eddiginél hozzáférhetőbbé tétele felé azáltal, hogy világszínvonalú érvelési teljesítményt nyújt kompakt, hatékony és nyíltan elérhető formátumban.
Mindössze 7 milliárd paraméterrel a Falcon H1R 7B kihívást jelent, sőt sok esetben felül is múlja a világ nagyobb, nyílt forráskódú mesterségesintelligencia-modelljeit, köztük a Microsoft (Phi 4 Reasoning Plus 14B), az Alibaba (Qwen3 32B) és az NVIDIA modelljeit (Nemotron H 47B). Ennek a modellnek a bemutatása megerősíti a TII hatékony mesterséges intelligencia innováció élvonalában betöltött pozícióját, ugyanakkor erősíti az Egyesült Arab Emírségek egyre növekvő befolyását a globális technológiai vezető szerepében.
Őexcellenciája Faisal al Bannai, az Egyesült Arab Emírségek elnökének tanácsadója és a Fejlett Technológiai Kutatótanács főtitkára elmondta: „A Falcon H1R az Egyesült Arab Emírségek azon elkötelezettségét tükrözi, hogy nyílt és felelős mesterséges intelligenciát hozzon létre, amely valódi nemzeti és globális értéket teremt. Azáltal, hogy a világszínvonalú gondolkodást egy kompakt, hatékony modellbe foglaljuk, olyan módon bővítjük a fejlett mesterséges intelligenciához való hozzáférést, amely támogatja a gazdasági növekedést, a kutatási vezető szerepet és a hosszú távú technológiai rugalmasságot.”
Áttörés a teszt-idő érvelésben
A Falcon H1R 7B a Falcon H1-7B alapjaira épít, és egy olyan speciális képzési megközelítéssel és hibrid Transformer-Mamba architektúrával rendelkezik, amely javítja a pontosságot és a sebességet.
„A Falcon H1R 7B hatalmas előrelépést jelent a kompakt mesterséges intelligencia rendszerek logikai képességei terén” – árulta el Dr Najwa Aaraj, a TII vezérigazgatója. „Közel tökéletes pontszámokat ér el az elit referenciaértékeken, miközben a memória és az energiafelhasználás kivételesen alacsony, ami kritikus kritérium a valós telepítés és a fenntarthatóság szempontjából.”
Ez a megközelítés felszabadítja azt, amit a kutatók „látens intelligenciának" neveznek, lehetővé téve a Falcon H1R 7B számára, hogy hatékonyabban és eredményesebben gondolkodjon. A modell egy új Pareto-határt állít fel, egy olyan teljesítmény-optimalizálási pontot, ahol a sebesség növelése nem megy a minőség rovására.
A legjobbak összehasonlítása
Versenyképes összehasonlítási teszteken a Falcon H1R 7B kiemelkedő eredményeket ért el:
- Matematika: 88,1%-ot ért el az AIME-24 teszten, ezzel felülmúlta a ServiceNow AI Apriel 1,5 (15B) modelljét (86,2%) – és bebizonyította, hogy egy kompakt 7B modell sokkal nagyobb rendszerekkel is képes versenyezni, vagy akár felül is múlja azokat.
- Kód és ágentikus feladatok: A modell 68,6%-os pontosságot ért el, ami a 8B alatti modellek között a legjobb teljesítménynek számít, és magasabb pontszámot ért el az LCB v6, a SciCode Sub és a TB Hard benchmarkokban, míg a Falcon H1R 34%-ot ért el a kínai DeepSeek R1-0528 Qwen 3 8B-hez képest (26,9%), sőt, még a nagyobb versenytársakat is felülmúlta, mint például a Qwen3-32B-t (33,4%).
- Általános érvelés: Erős logikai és utasításkövetési képességeket mutatott, amelyek megegyeztek vagy megközelítették a nagyobb modellek, például a MicrosoftPhi 4 Reasoning Plus (14B) teljesítményét, miközben csak a paraméterek felét használta.
- Hatékonyság: A hibrid Transformer–Mamba architektúrának köszönhetően akár 1500 token/másodperc/GPU sebességet is elért a 64-es batch-en, ami majdnem a duplája a kínai Qwen3-8B sebességének – ezáltal gyorsabb, méretezhető teljesítményt nyújt anélkül, hogy feláldozná a pontosságot.
„Ez a modell világszínvonalú a kutatás és a mérnöki munka eredménye. Megmutatja, hogy a tudományos pontosság és a méretezhető tervezés hogyan járhat kéz a kézben.” – nyilatkozta Dr Hakim Hacid, a TII Mesterséges Intelligencia és Digitális Kutatóközpontjának vezető kutatója. „Büszkék vagyunk arra, hogy egy olyan modellt kínálunk, amely lehetővé teszi a közösség számára, hogy intelligensebb, gyorsabb és hozzáférhetőbb mesterségesintelligencia-rendszereket építhessen.”
Nyílt forráskódú és közösségvezérelt
A TII mesterséges intelligencia átláthatóságára és együttműködésére vonatkozó elkötelezettségével összhangban a Falcon TII licenc alatt a Falcon H1R 7B nyílt forráskódú modellként jelenik meg. A fejlesztők, kutatók és intézmények világszerte a Hugging Face-en keresztül férhetnek hozzá a modellhez, valamint egy teljes technikai jelentéshez, amely részletezi a betanítási stratégiákat és a kulcsfontosságú gondolkodási referenciaértékeken elért teljesítményt.
Ez az új kiadás a TII Falcon programjának globális sikerére épít. Debütálásuk óta a Falcon modellek folyamatosan a világ legjobb teljesítményű mesterségesintelligencia-rendszerei közé tartoznak, az első négy generáció pedig a saját kategóriájában első helyen áll a globális rangsorban. Az egymást követő iterációk során a Falcon új mércét állított fel a teljesítmény, a hatékonyság és a valós világban való alkalmazhatóság terén, bizonyítva, hogy a kompakt, szuverén modellek jelentősen felülmúlhatják a nagyobb rendszereket. Ezek a mérföldkövek alátámasztják Abu Dhabi és az Egyesült Arab Emírségek egyre növekvő vezető szerepét a határokon átívelő mesterséges intelligencia terén, valamint a TII azon képességét, hogy globálisan versenyképes kutatásokat végezzen.
*Forrás: AETOSWire
E közlemény hivatalos, mérvadó változata az eredeti forrásnyelven közzétett szöveg. A fordítás csak az olvasó kényelmét szolgálja, és összevetendo a forrásnyelven írt szöveggel, amely az egyetlen jogi érvénnyel bíró változat.
Contacts
Jinan Warrayat
jinan.warrayat@tii.ae

