Apple Daily: M3 MacBook Air Benchmark, Siri lernt Musikvorlieben, ChatGPT kann Antworten vorlesen
Ein erstes Benchmark-Ergebnis für das neue M3 MacBook Air ist aufgetaucht, das einen genaueren Blick auf die Leistung des M3-Chips in Apples neuesten Laptops ermöglicht. In einem Geekbench 5 Ergebnis, das von MySmartPrice entdeckt wurde, erreichte das MacBook Air mit dem M3 Chip und 16 GB Arbeitsspeicher einen Single-Core Score von 3.157 und einen Multi-Core Score von 12.020. Die Ergebnisse tragen die Kennung “Mac15,13”, was bedeutet, dass sie für ein 15-Zoll MacBook Air gelten.
Zum Vergleich: Das vorherige MacBook Air mit dem M2-Chip und 16 GB Arbeitsspeicher erreichte einen Single-Core-Wert von 2.610 und einen Multi-Core-Wert von 10.120. Der M3-Chip im neuen MacBook Air hat also im Vergleich zum M2-Chip im Vorgängermodell rund 20 % mehr Punkte im Single-Core- und 18 % mehr Punkte im Multi-Core-Bereich erzielt und liegt bei den reinen CPU-Benchmarks gleichauf mit dem M3-Chip im 14-Zoll MacBook Pro. Mit einer 8-Kern-CPU, einem bis zu 10-Kern-Grafikprozessor und der Unterstützung von bis zu 24 GB Arbeitsspeicher ist das neue MacBook Air laut Apple bis zu 60 Prozent schneller als das Modell mit M1 und bis zu 13 Mal schneller als das schnellste Intel-basierte MacBook Air.
Apple hat am Montag, den 4. März, mit der Annahme von Vorbestellungen für das neue MacBook Air begonnen. Die ersten Auslieferungen an Kunden und die Verfügbarkeit in den Geschäften werden am Freitag, den 8. März, beginnen. Die Preise für das neue MacBook Air beginnen bei 1.299,00 Euro, während das 13-Zoll MacBook Air der vorherigen Generation mit dem M2-Chip weiterhin für 1.199,00 Euro erhältlich ist. Wir haben Euch heute über eine erste Aktion für das neue M3 MacBook Air mit bis zu 150,00 Euro Rabatt informiert.
Siri lernt deine Musikvorlieben mit der HomePod Software 17.4
Neben iOS 17.4, iPadOS 17.4 und tvOS 17.4 plant Apple auch ein HomePod 17.4 Software-Update, das eine kleine, aber bedeutsame Änderung an Siri vornimmt. Siri wird in der Lage sein, den bevorzugten Mediendienst eines Nutzers zu erkennen. Das bedeutet, dass man nicht mehr den Namen einer App angeben muss, wenn man Siri bittet, Inhalte abzuspielen, oder eine Standard-App eines Drittanbieters einstellen muss. HomePod-Nutzer können schon seit einiger Zeit Songs, Podcasts, Hörbücher und andere Medien mit unterstützten Drittanbieter-Apps über eine Siri-Anfrage abspielen, aber das musste in den Einstellungen der Home-App eingerichtet werden. Die Option war ziemlich versteckt, so dass einige HomePod-Nutzer/innen vergessen haben könnten, dass die Funktion überhaupt verfügbar ist. Aus den Versionshinweisen von Apple:
Dieses Update ermöglicht es Siri, deinen bevorzugten Mediendienst zu lernen, so dass du den Namen der Medien-App nicht mehr in deiner Anfrage angeben musst.
Mit HomePod 17.4 lernt Siri deine Vorlieben und nutzt diese, um Apps auszuwählen. Wenn du z. B. YouTube Music hast, musst du nicht mehr sagen: “Spiele [Liedname] auf YouTube Music”, um Apple Music zu umgehen, und du musst auch nicht mehr YouTube Music als Standard-Musikdienst in der Home App einstellen. Siri funktioniert auf diese Weise bereits auf dem iPhone und dem iPad und fragt die Nutzer/innen nach ihrer bevorzugten App, wenn sie zum ersten Mal Inhalte abspielen. Da Siri so aktualisiert wurde, dass es automatisch eine Voreinstellung vornimmt, hat Apple die Option in der Home-App entfernt, mit der die Nutzer/innen einen Standard-Mediendienst auswählen konnten.
Zu den Apps von Drittanbietern, die direkt mit dem HomePod funktionieren, gehören YouTube Music, Deezer, Pandora, TuneIn und iHeartRadio. Die Musikstreamingdienste müssen den HomePod unterstützen, damit die Funktion funktioniert, und das tun nicht alle. Der beliebte Musikdienst Spotify kann zwar Inhalte über eine Siri-Anfrage auf dem HomePod abspielen, verwendet dafür aber das iPhone. Neben der Siri-Unterstützung für einen bevorzugten Musikdienst enthält das HomePod 17.4 Update auch Leistungs- und Stabilitätsverbesserungen. Die HomePod 17.4 Software wird noch in dieser Woche veröffentlicht.
ChatGPT für iPhone und iPad kann jetzt Antworten laut vorlesen
OpenAI hat eine neue Vorlesefunktion für seine offizielle ChatGPT-App für iPhone und iPad angekündigt, mit der die Nutzer/innen Antworten des Chatbots in einer von fünf Sprachoptionen laut vorlesen lassen können. Tippe in der App auf die Textantwort des Chatbots, halte sie gedrückt und tippe dann auf “Vorlesen”. Du kannst das Vorlesen auch abspielen, pausieren oder zurückspulen. Die Funktion, die auch in der Webversion von ChatGPT verfügbar ist, fügt eine weitere Ebene der sprachbasierten Interaktion hinzu und baut auf der bestehenden Voice-Chat-Funktion auf, die den Nutzern die Möglichkeit gibt, mit dem Chatbot zu sprechen, anstatt zu tippen.
Read Aloud kann 37 Sprachen sprechen und erkennt automatisch die Sprache des Textes, den er vorliest. OpenAI sagt, dass die Funktion die Zugänglichkeit für Nutzer/innen mit Sehbehinderungen oder Leseschwierigkeiten, wie Legasthenie, verbessern soll. OpenAI hofft außerdem, dass Read Aloud das Engagement der Nutzer/innen durch eine personalisierte Interaktion verbessert und gleichzeitig das Sprachenlernen unterstützt. Wie die meisten inzwischen wissen, ist ChatGPT ein KI-basierter Chatbot, der generative künstliche Intelligenz nutzt, um Fragen zu beantworten und Ratschläge zu allen möglichen Themen zu geben. Der Verlauf wird geräteübergreifend synchronisiert, so dass du deine ChatGPT-Interaktionen sowohl im Web als auch auf iOS-Geräten sehen kannst, und er integriert das Spracherkennungssystem Whisper.
Anzeige*
Aktuelle Angebote!
Entdecke gadgetChecks.de!
Bildquelle: Titelbild (uixtube/Freepik) / News-Quellen: 9to5Mac - Macrumors - Bloomberg
*Transparenz!
= externe Links /// + Banner = Partner-Links - Wenn Du über diese einkaufst unterstützt du uns mit einer kleinen Provision, bei unverändertem Preis. Übersicht aller Partnerprogramme /// Preise gelten zum Zeitpunkt der Veröffentlichung - Informationen & Disclaimer /// ** = Ecovacs Tracking-Link