TII lanceert Falcon Reasoning: het beste 7B AI-model ter wereld, presteert ook beter dan grotere modellen
TII lanceert Falcon Reasoning: het beste 7B AI-model ter wereld, presteert ook beter dan grotere modellen
- Falcon H1R 7B brengt geavanceerd redeneervermogen samen in een compact model met 7 miljard parameters, geoptimaliseerd voor snelheid en efficiëntie
- Het nieuwste AI-model van TII presteert beter dan grotere rivalen van Microsoft, Alibaba en NVIDIA op belangrijke benchmarks
ABU DHABI, Verenigde Arabische Emiraten--(BUSINESS WIRE)--Het Technology Innovation Institute (TII), de toegepaste onderzoekspijler van de Advanced Technology Research Council (ATRC) van Abu Dhabi, heeft de lancering aangekondigd van Falcon H1R 7B, een AI-model van de volgende generatie dat een belangrijke stap zet om geavanceerde AI toegankelijker dan ooit te maken door redeneervermogen van wereldklasse te leveren in een compact, efficiënt en vrij beschikbaar formaat.
Met slechts 7 miljard parameters daagt Falcon H1R 7B grotere open-source AI-modellen van over de hele wereld uit en presteert het in veel gevallen beter, waaronder modellen van Microsoft (Phi 4 Reasoning Plus 14B), Alibaba (Qwen3 32B) en NVIDIA (Nemotron H 47B). Deze modelrelease bevestigt opnieuw de positie van TII aan de voorhoede van efficiënte AI-innovatie en versterkt de groeiende invloed van de Verenigde Arabische Emiraten in het wereldwijde technologisch leiderschap.
Zijne Excellentie Faisal al Bannai, adviseur van de president van de VAE en secretaris-generaal van de Advanced Technology Research Council, zei “Falcon H1R weerspiegelt de inzet van de Verenigde Arabische Emiraten om open en verantwoorde AI te ontwikkelen die echte nationale en mondiale waarde levert. Door redeneervermogen van wereldklasse onder te brengen in een compact en efficiënt model, verbreden wij de toegang tot geavanceerde AI op een manier die economische groei, leiderschap in onderzoek en technologische veerkracht op de lange termijn ondersteunt.”
Een doorbraak in test-time-redeneren
Falcon H1R 7B bouwt voort op de Falcon H1-7B-stichting met een gespecialiseerde trainingsaanpak en een hybride Transformer-Mamba-architectuur die zowel de nauwkeurigheid als de snelheid verbetert.
"Falcon H1R 7B markeert een sprong voorwaarts in de redeneervaardigheden van compacte AI-systemen", zei Dr. Najwa Aaraj, CEO van TII. “Het behaalt bijna perfecte scores op toonaangevende benchmarks, terwijl het geheugen- en energieverbruik uitzonderlijk laag blijft, cruciale criteria voor inzet in de praktijk en duurzaamheid.”
Deze aanpak maakt mogelijk wat onderzoekers “latente intelligentie” noemen, waardoor Falcon H1R 7B effectiever en efficiënter kan redeneren. Het model stelt een nieuwe Pareto-frontier vast, een optimaal prestatiepunt waarbij hogere snelheid niet ten koste gaat van kwaliteit.
Benchmarking van de besten
In concurrerende benchmarks leverde Falcon H1R 7B opvallende resultaten:
- Wiskunde: behaalde 88,1% op AIME-24, beter dan Apriel 1.5 (15B) (86,2%) van ServiceNow AI, wat bewijst dat een compact 7B-model veel grotere systemen kan evenaren of overtreffen.
- Code- en agentic-taken: Behaalde een nauwkeurigheid van 68,6%, een best-in-class prestatie onder modellen kleiner dan 8B, en scoorde hoger op de benchmarks LCB v6, SciCode Sub en TB Hard, waarbij Falcon H1R 34% behaalde tegenover China’s DeepSeek R1-0528 Qwen 3 8B (26,9%) en zelfs grotere modellen zoals Qwen3-32B (33,4%) overtrof.
- Algemeen redeneervermogen: Toonde sterke logische en instructievolgende capaciteiten en evenaarde of benaderde de prestaties van grotere modellen zoals die van Microsoft’s Phi 4 Reasoning Plus (14B), terwijl slechts de helft van het aantal parameters werd gebruikt.
- Efficiëntie: Bereikte tot 1.500 tokens per seconde per GPU bij batch 64, bijna een verdubbeling van de snelheid van China’s Qwen3-8B, dankzij de hybride Transformer–Mamba-architectuur - wat zorgt voor snellere, schaalbare prestaties zonder in te boeten op nauwkeurigheid.
“Dit model is het resultaat van onderzoek en engineering van wereldklasse. Het laat zien hoe wetenschappelijke precisie en schaalbaar ontwerp hand in hand kunnen gaan,” aldus Dr. Hakim Hacid, hoofdonderzoeker bij het Artificial Intelligence and Digital Research Centre van het Technology Innovation Institute. "We zijn trots om een model te leveren waarmee de community slimmere, snellere en toegankelijkere AI-systemen kan bouwen."
Open source en community-gedreven
In overeenstemming met TII’s inzet voor transparantie en samenwerking op het gebied van AI is Falcon H1R 7B uitgebracht als open-sourcemodel onder de Falcon TII-licentie. Ontwikkelaars, onderzoekers en instellingen over de hele wereld hebben toegang tot het model via Hugging Face, samen met een volledig technisch rapport waarin de trainingsstrategieën en prestaties op belangrijke redeneerbenchmarks worden beschreven.
Deze nieuwe release bouwt voort op het wereldwijde succes van het Falcon-programma van TII. Sinds hun debuut behoren Falcon-modellen consequent tot 's werelds best presterende AI-systemen, waarbij de eerste vier generaties de nummer één wereldwijde ranglijst in hun respectieve categorieën behalen. In opeenvolgende iteraties heeft Falcon nieuwe maatstaven gezet op het gebied van prestaties, efficiëntie en inzetbaarheid in de praktijk, waarmee wordt aangetoond dat compacte, soevereine modellen aanzienlijk grotere systemen kunnen overtreffen. Deze mijlpalen onderstrepen het groeiende leiderschap van Abu Dhabi en de bredere Verenigde Arabische Emiraten op het gebied van frontier AI en tonen het vermogen van TII aan om wereldwijd concurrerend onderzoek te leveren.
*Bron: AETOSWire
Contacts
Jinan Warrayat
jinan.warrayat@tii.ae

