L’effort d’Apple du côté du son (voir édition du jour) intervient un an après la mise à jour de sa technologie de traitement du signal intégrée à Mac OS X. Pour être prioritaires, les services de traitement sonore sont en effet intégrés au système sous la forme de deux API, intitulées Core Audio et Core MIDI. Résultat : un temps de latence de moins d’une microseconde (un millième de milliseconde !). En prime, le traitement du son est unifié au coeur du système, ce qui permet à tous les produits matériels ou logiciels les utilisant d’interagir. Ainsi le composant Core MIDI de Mac OS X contrôle-t-il l’accès des interfaces MIDI, tandis que Core Audio gère les entrées et sorties vers le matériel audio. Apple a ajouté à ces deux composants des unités audio (Audio Units ou AU) qui servent d’interfaces aux plug-ins et aux instruments. Sous Mac OS X, les communications audio et MIDI de toutes les applications sont gérées et intégrées dans le système. Un support qui permet la combinaison d’autant de sources qu’on le désire. L’intégration des Audio Units n’est intervenue qu’en juillet 2002, retardant d’autant la montée en puissance de solutions les utilisant. Et ce n’est pas tout : selon eMagic, l’unité Altivec du G5 permet de traiter les processus vectorisés qui sont au coeur des applications modernes de traitement du son.
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…
Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…
Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…