21 februari 2024

Apple Streeft Naar AI-Functionaliteit Direct Op Hardware, Niet In De Cloud

Apple, de wereldberoemde technologiegigant, heeft een nieuwe visie voor de toekomst van kunstmatige intelligentie (AI). In plaats van AI te laten draaien op externe servers in de cloud, wil Apple AI rechtstreeks op zijn hardware laten draaien. Deze ambitie is een duidelijke afwijking van de huidige trend waarbij AI voornamelijk in de cloud draait.

Apple’s recente onderzoek, getiteld “LLM in a Flash”, biedt een oplossing voor een huidige computationele knelpunt. Het onderzoek stelt dat hun aanpak de weg vrijmaakt voor effectieve inferentie van grote taalmodellen (LLM’s) op apparaten met beperkt geheugen. Inferentie verwijst naar hoe grote taalmodellen, de grote dataverzamelingen die apps zoals ChatGPT voeden, reageren op gebruikersvragen. Normaal gesproken draaien chatbots en LLM’s in enorme datacenters met veel meer rekenkracht dan een iPhone.

Deze nieuwe benadering van Apple kan een revolutie teweegbrengen in de smartphone-industrie, die het afgelopen jaar haar slechtste jaar in een decennium heeft gehad, met een geschatte daling van 5 procent in de verzendingen. Het kan ook een nieuwe ervaring voor consumenten creëren en de dalende mobiele markt omkeren.

Apple’s concurrenten, zoals Samsung, bereiden zich voor om volgend jaar een nieuw soort “AI-smartphone” te lanceren. Er wordt geschat dat er in 2024 meer dan 100 miljoen AI-gerichte smartphones zullen worden verzonden, met 40 procent van de nieuwe apparaten die dergelijke mogelijkheden bieden tegen 2027.

Veelgestelde Vragen (FAQ)

Wat betekent het om AI rechtstreeks op hardware te laten draaien?
Dit betekent dat de AI-functionaliteiten van een apparaat worden uitgevoerd op de fysieke hardware van het apparaat zelf, in plaats van op externe servers via de cloud.

Wat is een groot taalmodel (LLM)?
Een groot taalmodel is een type AI dat grote hoeveelheden tekst kan genereren en begrijpen. Het wordt vaak gebruikt in chatbots en andere AI-toepassingen die menselijke taal moeten begrijpen en genereren.

Wat is inferentie in de context van AI?
Inferentie verwijst naar het proces waarbij een AI-model voorspellingen of beslissingen neemt op basis van de gegevens die het heeft geleerd tijdens de training.

Wat is een AI-smartphone?
Een AI-smartphone is een smartphone die AI-functionaliteiten rechtstreeks op de hardware van het apparaat uitvoert, in plaats van te vertrouwen op externe servers of de cloud. Deze smartphones kunnen geavanceerdere AI-functies bieden, zoals spraakherkenning, beeldherkenning en voorspellende tekst.