Wybierz język

Polish

Down Icon

Wybierz kraj

England

Down Icon

Inteligencja Apple może teraz zakradać się na ekran Twojego iPhone’a

Inteligencja Apple może teraz zakradać się na ekran Twojego iPhone’a

Nie byłoby to główne wystąpienie programistów w 2025 roku bez odrobiny AI, prawda? Chociaż Apple Intelligence było rozczarowujące od czasu wprowadzenia na rynek w październiku ubiegłego roku, Apple wydaje się być zobowiązane do ulepszenia tego doświadczenia za pomocą kluczowych ulepszeń, takich jak… nowe Genmoji? Okej, może WWDC 2025 nie był rewolucyjnym rokiem dla Apple Intelligence , ale nadal jest kilka ulepszeń wartych odnotowania, w tym nowa funkcja, która może obserwować, co robisz na swoim telefonie, a następnie podejmować określone działania w zależności od scenariusza.

Visual Intelligence, jak nazywa to Apple, to funkcja, która rozszerza możliwości multimodalne poza aplikację Aparat i na ekran iPhone'a. „Użytkownicy mogą zadawać pytania ChatGPT dotyczące tego, co widzą na ekranie, aby dowiedzieć się więcej, a także przeszukiwać Google, Etsy lub inne obsługiwane aplikacje, aby znaleźć podobne obrazy i produkty” — mówi Apple . „Jeśli użytkownik jest szczególnie zainteresowany jakimś przedmiotem, takim jak lampa, może go zaznaczyć, aby wyszukać ten konkretny przedmiot lub podobne obiekty online”.

To wcale nie brzmi nowatorsko, ale zbliża Apple Intelligence do konkurentów, takich jak Google, który ma funkcję Gemini , która robi mniej więcej to samo. Przybliża to również Apple Intelligence do Świętego Graala „ agentycznej AI ”, co jest sposobem świata technologii na opisanie AI, która może coś dla Ciebie zrobić. Mimo że multimodalne funkcje, takie jak Visual Intelligence, stały się nudne w bardzo krótkim czasie, moim zdaniem nadal mają moc, aby faktycznie poprawić wrażenia z korzystania z telefonu.

Funkcje Apple Intelligence w systemie iOS 16.
© Apple

Myślę, że mówię w imieniu większości ludzi, gdy mówię, że korzystanie z iPhone'a nie jest już takie proste, jak kiedyś, i jest na to kilka powodów. Jednym z nich jest to, że oczekujemy od naszych telefonów, że będą robić o wiele więcej niż kiedyś, co oznacza, że ​​urządzenia muszą mieć więcej funkcji, aby wykonywać wszystkie te rzeczy. Problem polega na tym, że śledzenie tych funkcji i znalezienie dla nich miejsca w interfejsie użytkownika nie jest łatwe — sprawia, że ​​oprogramowanie wydaje się bardziej rozdęte. Agentyczna sztuczna inteligencja ma zdolność przebicia się przez rozdęcie i szybszego doprowadzenia Cię do rzeczy, którą chcesz zrobić. Jeśli oznacza to, że mogę poświęcić mniej czasu na wprowadzanie danych karty płatniczej lub nawigowanie między aplikacjami w telefonie, to jestem za.

Wszystko to jest na razie teoretyczne, ponieważ Visual Intelligence zostało właśnie wydane i nie możemy powiedzieć na pewno, czy działa zgodnie z obietnicami, ale na pewno nie jestem zły na ten pomysł, nawet pomimo tego, że jestem trochę rozczarowany. Visual Intelligence powinno również obsługiwać sztuczną inteligencję na urządzeniu, co jest świetne, ponieważ wysyłanie danych z ekranu mojego telefonu w dowolne miejsce naprawdę nie byłoby wysoko na mojej liście rzeczy do zrobienia.

Nie chodziło tylko o inteligencję wizualną; Apple zaprezentowało również nowe funkcje AI, takie jak Live Translation w Wiadomościach i FaceTime, aby tłumaczyć podczas pisania wiadomości tekstowych lub dzwonienia do kogoś. Pojawiły się również aktualizacje Genmoji i Image Playground, które dodają dalsze dostosowywanie i nowe style artystyczne dla generowanych obrazów i emoji. Ponadto Apple udostępni swój model bazowy na urządzeniu dla Apple Intelligence i zaprosi zewnętrznych deweloperów aplikacji do projektowania własnych funkcji AI.

„Deweloperzy aplikacji będą mogli budować na Apple Intelligence, aby dostarczać użytkownikom nowe doświadczenia, które są inteligentne, dostępne, gdy są offline i chronią ich prywatność, wykorzystując wnioskowanie AI, które jest bezpłatne” — powiedział Apple w oświadczeniu. „Na przykład aplikacja edukacyjna może używać modelu na urządzeniu do generowania spersonalizowanego quizu z notatek użytkownika, bez żadnych kosztów interfejsu API w chmurze, a aplikacja zewnętrzna może dodawać funkcje wyszukiwania w języku naturalnym, które działają nawet wtedy, gdy użytkownik jest offline”.

Ponownie, nie jest to najbardziej błyskotliwa wiadomość dla Apple Intelligence, ale może być to solidny sposób na przyspieszenie rozwoju nowych funkcji AI, zwłaszcza gdy Apple pozostaje w tyle w dziedzinie generatywnej AI i dużych modeli językowych. Mówiąc o pozostawaniu w tyle, jedną godną uwagi rzeczą, której brakowało, była aktualizacja Siri oparta na AI, chociaż Apple odniosło się do kwestii AI, stwierdzając, że usłyszymy więcej „później w tym roku”. To wcale nie jest zaskakujące, ale zdecydowanie wskazuje na potknięcia Apple na froncie AI.

Tegoroczna konferencja WWDC nie zrobiła wiele, aby złagodzić wszelkie obawy, jakie możesz mieć co do postępów Apple w dziedzinie AI, ale trochę przesunęła igłę do przodu, a to może wystarczyć dla większości. Pomimo nacisku branży na funkcje AI, konsumenci mają zdecydowanie mniejszy apetyt na te funkcje, więc wątpię, aby tegoroczna aktualizacja powstrzymała kogokolwiek przed wybiegnięciem w tym roku i zakupem najnowszego iPhone'a .

Każdy, kto jest częścią Apple Developer Program, może korzystać z nowych funkcji Apple Intelligence już dziś, a pierwsza publiczna beta będzie dostępna w przyszłym miesiącu. Jeśli nie interesują Cię wersje beta lub nie jesteś programistą, będziesz musiał poczekać do jesieni, aby wypróbować te nowe funkcje w całości.

gizmodo

gizmodo

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow