IA : les nouvelles fonctions d’iOS 18 devraient tourner localement

Félix Cattafesta |

Les rumeurs s’accordent à dire qu’Apple va proposer de gros changements liés à l’IA générative dans iOS 18, une théorie confirmée par Greg Joswiak en personne. Reste à savoir comment Cupertino compte faire tourner tout cela : en se basant sur le nuage ? En local ? Un mix des deux ? Le généralement bien renseigné Mark Gurman affirme que « la première vague de nouveautés » du système fonctionnera uniquement grâce à la puissance du téléphone.

La présentation de Siri 2 selon DALL-E 3.

Autrement dit, les fonctions d’IA d’iOS 18 ne nécessiteraient pas de connexion internet. C’est un bon point pour l’utilisateur, qui ne verra pas ses données transiter sur des serveurs distants en plus de pouvoir tout utiliser en mode avion. Mark Gurman ajoute cependant que de futures fonctions pourraient demander un appui dans le nuage par la suite.

Apple aurait bien développé un gros modèle de langage maison proposé depuis ses serveurs, mais celui-ci a visiblement pris du retard. Au mois de mars, Bloomberg affirmait que Cupertino était en discussion avec Google pour inclure Gemini dans iOS 18. En Chine, il pourrait s’agir de Baidu afin de se plier aux règles du marché local. On ne sait pas encore comment tout cela va se goupiller, mais il semble qu’Apple ait l’ambition de proposer un jour des services depuis le nuage : l’entreprise aurait dépensé des millions de dollars en 2023 pour s’équiper en serveurs.

En attendant, faire tourner un modèle d’IA générative complet demande pas mal de puissance : Google a récemment expliqué qu’il faut au moins 12 Go de RAM pour obtenir des performances convenables avec son Gemini Nano. Toutes les fonctions d’IA de son dernier Pixel 8 Pro ne tournent d’ailleurs pas localement, et Google s’appuie sur le nuage pour de nombreux aspects.

Test du Pixel 8 Pro : IA d’la joie

Test du Pixel 8 Pro : IA d’la joie

Selon les bruits de couloir, l’IA devrait infuser dans tous les recoins d’iOS 18. Certains voient venir un nouveau Siri plus intelligent, là où d’autres annoncent du neuf pour Spotlight et Messages. De manière plus générale, la suite iWork et Xcode devraient gagner des fonctions d’IA. Le Mac ne sera sans doute pas épargné, avec des puces M4 arrivant d’ici la fin de l’année avec un gros accent mis sur le Neural Engine. On sera fixé prochainement : la WWDC aura lieu du 10 au 14 juin, avec de premières bêtas suivant traditionnellement dans la foulée.

avatar Vyggo | 

Si c’est en local, le stockage du tel va t’il être impacté pour accueillir les modèles ? Je suppose que tout ne peut pas être hardware.

avatar R-APPLE-R | 

@Vyggo

Enfin le 256GB de base peut être et peut être aussi plus de RAM pour le prochain iPhone par exemple 12 serait bien le minimum selon moi pour voir l’avenir
À moins que Apple est trouvé une solution miracle pour faire ce que font les autres en consomment 3 ou 5 fois moins de RAM
Pour les MAC c’est honteux de commencer à 8GB de RAM et même le 256GB c’est limite quand même même si cette année Apple à corriger sont problèmes de vitesse enfin en partie
Quand je vois les prix d’Apple pour augmenter la RAM ou le SSD versus le Prix d’un SSD qui tourne 2 à 3 fois plus vite vendu sur Amazon 👿

avatar misterbrown | 

@R-APPLE-R

Alala..
C’est iPhones qui fonctionnent encore très bien avec 2 ou 3 Go de ram, que vont ils devenir?

L’IA va être le nouvel argument marketing d’Apple pour forcer les gens à acheter leur iPhone 16pro turbo GTi

avatar IsaPain | 

@misterbrown

et oui...
Timy ne pouvant plus mettre en avant l'incroyable célérité du proc qui faisait du +500% en une gen...
Timy ne pouvant plus mettre en avant des cameras capables de satisfaire Steven Spielberg pour réaliser E.T. the Return grâce au SSD 1To collé en USB-c au derrière de son Pro-Max qui lui permet de l'engistrement 4k via LOG pour refaire toute la colorimétrie marron prout prout de notre extraterrestre préféré à tous...
Et bin Timy va pouvoir nous expliquer à nouveau tous les ans pourquoi il faut jeter son iPhone n-1 qui n'aura pas assez de puissance IA pour lui dicter la liste de courses en Français ET Espagnol en même temps (couple d'expat. de chez TOTOL qui sont les seuls aujourd'hui en Fronce à pouvoir s'offrir un iPhone Pro sans faire un Cetelem x48 mois... ).

You are the Best Timy, the Only One. 🤩

avatar appleadict | 

@IsaPain

"Timy ne pouvant plus mettre en avant l'incroyable célérité du proc qui faisait du +500% en une gen...
Timy ne pouvant plus mettre en avant des cameras capables de satisfaire Steven Spielberg pour réaliser E.T. the Return grâce au SSD 1To collé en USB-c au derrière de son Pro-Max qui lui permet de l'engistrement 4k via LOG pour refaire toute la colorimétrie marron prout prout de notre extraterrestre préféré à tous...
Et bin Timy va pouvoir nous expliquer à nouveau tous les ans pourquoi il faut jeter son iPhone n-1 qui n'aura pas assez de puissance IA pour lui dicter la liste de courses en Français ET Espagnol en même temps (couple d'expat. de chez TOTOL qui sont les seuls aujourd'hui en Fronce à pouvoir s'offrir un iPhone Pro sans faire un Cetelem x48 mois... ).
You are the Best Timy, the Only One. 🤩"

ouiiii Timy est un génie 🧞‍♀️🧞🧞‍♂️

il a compris qu'avec le retour de The Donald, il allait devoir faire une IA spécifique pour les adorateurs du grand D, une autre pour les supporter de GI Joe , et encore d'autres pour les woke, les latinos, les vegans, l'aile gauche du parti democrate, son aile droite, wall street, les 99%, ... du coup il laisse filtrer dans la presse que c'est à cause des chinois :
"Au mois de mars, Bloomberg affirmait que Cupertino était en discussion avec Google pour inclure Gemini dans iOS 18. En Chine, il pourrait s’agir de Baidu afin de se plier aux règles du marché local."

superbe stratégie 😎

avatar valcapri | 

@Vyggo

Oui, Apple a semble-t-il développé des modèles qui tournent en partie en RAM et une autre partie sur le stockage. Et oui, forcément, le modèle sera dans le stockage du téléphone. Maintenant, il faudra voir si le modèle sera directement intégré dans les mises à jour d’iOS, ou si il sera dans l’App Store et mis à jour depuis.

avatar Insomnia | 

@valcapri

Si c’est le cas je donne pas cher de la durée de vie de la mémoire 🫣

avatar BeigeProvincialNewt | 

@Vyggo

Le plus important ne sera pas le stockage ni vraiment la RAM mais les cœurs graphiques.

avatar Vyggo | 

Merci messieurs pour votre retour,

avatar TiTwo102 | 

Ça sent le flop total cet IA sur iOS 18.

avatar macbook60 | 

@TiTwo102

Les autres ça n’a pas l’air trop ça encore

avatar frankm | 

@macbook60

Une IA c’est une petite rapporteuse de connaissances humaines. C’est du Pipotron.
Et avec Apple, ça va être passé au désinfectant de la bienveillance… pauvre de nous.

avatar amonbophis | 

@TiTwo102

Je ne comprends pas sur quoi vous vous basez pour conclure cela. Pour l’instant on n’a que des rumeurs et des analyses de lecteurs qui se prennent pour des ingénieurs. (C’est factuel sauf pour les ingénieurs qui commentent sous pseudo).

Quelle est votre argumentation?

avatar CyanInfluentialCrane | 

@amonbophis

C’est rien. Les gens aiment bien dire « flop » sans qu’il n’y ait le moindre fondement. C’est à la mode. Ça doit être un ado.

avatar oomu | 

D'ailleurs, ce commentaire sent le flop total

#flopFlipFlap

avatar Bounty23 | 

@TiTwo102

Merci pour ton analyse qui témoigne d’une longue étude sur le sujet.

Hâte de lire ton rapport de 80 pages expliquant pourquoi et comment. Ou plutôt, de m’en servir pour caler mes lombaires devant le Keynote de la WWDC.

avatar Biking Dutch Man | 

@Bounty23

J'ai eu peur. J'ai pensé que vous alliez dire: pour rehausser ma position...

avatar Angusalex | 

@TiTwo102

Tu sais des choses que l’on ne sait pas ?

avatar AppleSilicon | 

Oui, mais on parle de 3-8Go sur des modèles qui vont être adaptés au mobile. Donc pas négligeable si Apple reste sur du stockage de base ridicule, mais sinon l’impact serait invisible.
À priori le blocage serait plus côté RAM que stockage, même si justement Apple sort plein de papiers de recherche en ce moment qui tendent à permettre à des modèles de tourner en local sur des volumes de ram restreints !

avatar 0MiguelAnge0 | 

@AppleSilicon

Je fais tourner en mocal sur mon MBP13 M1 des modèles LLM 7B ‘quantifiés’ pour pass d’une precision 16b vers <8b. Avec 5 ou 6bits, ces modèles nécessitent autour de 5.3GB de RAM.
La précision pour les LLMs n’est pas le nerd de la guerre.
Bref on est bien loin des 12GB énoncés. Mais le hic c’est plus pour la puissance de calcul car même avec Metal, c’est un peu en retrait.
Avec le modèle 7B plus haut utilisé comme ‘Copilote’ local, les requêtes sont traitées en 10s en moyenne. Ce n’est pas gênant pour du code.
Mais pour quelque chose de plus interactif, il faut viser des modèles occupant moins de 1GB (aprés quantification).

Il faut noter que le processeur neuronal n’est pas utilisé car il demanderait que tout le modèle soit réecrit, alors que là, les modèles accélérés nativement par des GPU Nvidia utilise ‘au mieux’ metal pour accélérer les calculs.

avatar AppleSilicon | 

@0MiguelAnge0

Idem, avec LM Studio je fais tourner des modèles plus ou moins quantifiés, entre 2 Gb et 10 Gb pour les plus gros (en 7B de params).
Sur un M3 Pro et en passant bien le modèle en RAM + l’accélération Métal, l’inference est vraiment extrêmement rapide !

avatar 0MiguelAnge0 | 

@AppleSilicon

Bon, il y a que 10% de mon post qui est passé! Bref, ce que je voulais écrire est qu’avec 5GB, un modèle 7B passe en allouant 40% du GPU de mon M1. Cela permet d’avoir le système avec suffisament de marge pour les tâches en //.
Par contre, le temps de traitement tourne autour de 5s~10s pour un LLM utilisénen copilote like.
Avec des modèles de moins de 1GB, c’est instantané.

Bref, je pense que le futur challenge restera la puissance de calcul car les modèles sont crées pour être rendu en GPU. Le faire sur un NPU demande beaucoup d’adapations.

Mais je doute que la puce qui arrive soit parfaite car les Ax ne sont pas conçus en quelques mois. Cette version sera une Gen 1 à la Apple… Et au passage ils vont aussi dire que tous les anciens iPhone ne seront pas compatibles…

Bref, l’IA sur un phone est moins pertinent que l’IA sur un Mac. Et puis me dire qu’Apple courre après des GPUs de Nvidia est assez poilant et encore plus quand ils ont dû acheter des servers x86 ouverts pour que leurs equipes puissent mettre des cartes Nvdia: c’est ce qui s’appelle avoir un mauvais karma…

avatar Glop0606 | 

Le local c'est l'avenir d'une partie de l'IA et c'est bien ainsi. De savoir que mes données personnelles sont traitées en local serait pour moi un argument fort d'investissement dans des produits Apple ou autres.

avatar StephanM3 | 

Une question que je me pose ?
Est-ce que cela sera complètement transparent ?
Est-ce que cela sera débrayable ?

avatar TrollMan06 | 

@StephanM3

Ça fait 3 questions

avatar berrald | 

@ TrollMan06

😂

avatar louisb | 

@TrollMan06

😭

avatar CtrlMaster | 

Ce qui exclurait donc les iPhone 14 et 15 ? 🙃

avatar bhelden | 

1. Je vois pas ce que l'IA peut apporter sur nos devices.

2. Ça sent la méchante consommation de batterie.

3. Apple est perdu. Sans OpenAI et la tendance depuis 2 ans, Apple n'aurait pas pris un virage aussi rapide dans cette direction. Ça fait 10 ans (plus pu moins ?) que Siri est sorti et le seul truc dont il/elle sait dire c'est la météo.

4. J'ai pas aimé les changements du lockscreen d'IOS 16. iOS 17 n'apporte pas grand chose et iOS 18 reste une blague pour le moment. Je suis toujours sur iOS 15 et ça me va parfaitement (iPhone 13 mini).

avatar Rez2a | 

@bhelden

« Apple est perdu. Sans OpenAI et la tendance depuis 2 ans, Apple n'aurait pas pris un virage aussi rapide dans cette direction. »

Évidemment, ça fait depuis l’iPhone 8 qu’Apple met en avant son neural engine embarqué dans les puces Ax, c’est bien la preuve qu’ils n’ont jamais vu venir le truc.

avatar bhelden | 

@Rez2a

Entre faire des puces qui sont conçus pour l'IA - et qui cartonnent en terme de puissance - et faire des fonctionnalités qui servent vraiment à remplir la fonction première de ces puces, il y a un gap.

C'est comme l'ipad. C'est bien sympa de mettre du M3 ou M28 dedans mais si c'est simplement pour checker du mail ou faire 3-4 retouches photos... cymer Apple hein 🤭

avatar misterbrown | 

@bhelden

Bien résumé

avatar CyanInfluentialCrane | 

@bhelden

Si tu ne vois pas ce que l’IA apporte à tes devices, c’est que les IA qu’ils utilisent depuis une quasiment 10 ans est très efficace dans ton quotidien.
De l’IA dans les produits Apple il y en a depuis l’iPhone 7-8 hein.

avatar raoolito | 

@CyanInfluentialCrane

Tout à fait d'accord quand j'utilise mon iPhone il ne se passe pas à 30 minutes sans qu'à un moment ou un autre l'ia ait participé à ce qui s'affiche devant moi

avatar bhelden | 

@CyanInfluentialCrane

Alors donne moi des exemples parce qu'autre l'application Photos qui apprend à reconnaître les visages... je ne vois pas où il y a de l'IA.

Ah si, parfois tu reçois un mail d'un "copain/copine/collègue" et ça te propose de le rajouter dans tes contacts ou de préfill le contact quand tu réécris quelque chose. Mais j'appelle pas ça de l'IA.

avatar louisb | 

@bhelden

Une blague qui n’est pas sortie, wait and sea 🌊

avatar BeigeProvincialNewt | 

Apple ne va pas sortir un ChatGPT non plus.

avatar vidok91 | 

Les “anciens” iPhone risquent de devenir fonctionnellent obsolètes bien plus rapidement que jusqu’à présent. 🏚️
Finalement, l’argument IA va faire l’affaire d’Apple (et des autres), une raison toute trouvée d’inciter au renouvellement accéléré du parc. 🕺🏼💰

avatar dark juju | 

@vidok91

Si on attendait de voir ? Si ça se trouve les traitements seront à distance sur les anciens appareils et la différence sera minime (à part le mode avion) ?

Et puis les gens passent leur temps à se plaindre qu’Apple n’innove plus et pour une fois que quelque chose de nouveau risque d’arriver tout le monde se plaint que leur téléphone n’aura pas la dernière nouveauté 🤷‍♂️

avatar misterbrown | 

IOS 18 va être à éviter si on ne veut pas un OS de 40go et des performances diminuées sur les anciens modèle

avatar hugome | 

Aujourd’hui, l’état de l’art c’est:
IA locale = intelligence moyenne, mais quand même avec des smartphones boostés en RAm et en stockage => chers
IA distante = intelligence supérieure mais sur des machines si chères qu’il faut un abonnement (cf Chatgpt 20€/mois)

Avec des évolutions rapides sur l’architecture.

Conséquence
1/ le prochain iPhone coûtera cher et aura une intelligence moyenne qui pourra servir d’assistant personnel et qui sera ringardisée en 2-3 ans. Si Apple se loupe, ce qui n’est pas exclu vu la complexité du sujet et le passif de Siri celui de 2024 sera pas top top.
2/ Rapidement Apple sortira un AppleGpt, sans doute sous-traité au début, qu’il facturera à part ou dans iCloud à 5-15€/mois

Bref. On va être tondus de toute façon :-)

avatar oomu | 

"Bref. On va être tondus de toute façon :-)"

non.

avatar Moebius13 | 

Vu le test des fonctions en local du Pixel 8 sur MacG, il va pas falloir s’attendre à des miracles….

Par contre je suis heureux, on va avoir droit aux fonctions de retouches photos via IA de Google Photos sur iOS à partir de mai et ça c’est cool, bon faut,l’abonnement à Google One 2TB pour être en illimité mais ça j’ai déjà, j’ai hâte de tester.

avatar totoguile | 

pour des modèles plus petits, les Français de Mistral semblent plutôt bon :
https://mistral.ai/fr/technology/#models
cf. https://youtu.be/mc2Qli9ImOI?si=RSw7DKysQTohBhCW

Enfin, un modèle peut être optimisé pour l'usage : on peut raisonnablement envisager qu'Apple l'optimise pour un certain type de réponses par Siri, et pas forcément pour faire la rédaction de pr-brevet du petit dernier en 3eme.

Bref, un LLM, ca s'optimise en fonction de l'usage.

avatar andr3 | 

IA …

Intelligence d'Achat

ou

Impulsivité d'Achat …

avatar appleadict | 

@andr3

"IA …
Intelligence d'Achat
ou
Impulsivité d'Achat …"

👍 j'adore 😍

avatar Biking Dutch Man | 

Donc comme pour la voiture électrique, il est urgent d'attendre et de voir comment tout cela évolue avant de se jeter sur la rev. A de l'amazing new product... mon iPhone 12 fonctionne encore très bien, batterie 94%.

avatar Mac13 | 

Je visualise un peu de ce que va être un mix des fonctionnalités iOS existants pour Siri 2 :
-sauvegarde d'une partie de Plans
-modes de concentrations
-Continuité

avatar Levrai | 

C'est beau de voir les fanboys sortir des excuses bidons ou défendre Apple bec et ongle car ils sont largués niveau ia.
Bref ca sent un ios 18 péter de bug et finit à la va vite. Va ton battre le record de mise a jour en moins de 2 semaines que detient ios17? On est sur la bonne voie.
Quand on voit la qualité du machine learning Apple pour son clavier ca fait vraiment peur....w2s

avatar Insomnia | 

Si c’est local on verra l’arrivée de l IA sur les deux derniers appareils et le reste aura les miettes

Pages

CONNEXION UTILISATEUR