Samsung hat bei der Vorstellung der Galaxy S24 Reihe viele K.I.-Funktionen in die Software integriert. Nach dem Event hat man dann noch in einer Pressenews mitgeteilt, dass man einige der Funktionen auch auf ältere Geräte zu Verfügung stellen möchte. Die Galaxy Tab S9 und Flip- sowie Z-Modelle haben das Update bereits erhalten. Nun ist auch das Galaxy S21 FE an der Reihe.

Funktionen im Überblick:
- Option, die Tonalität in Nachrichten anzupassen (Echtzeitübersetzung von Nachrichten)
- Split-Screen-Funktion mit Textübersetzungen für Live-Gespräche
- Suchaktionen durch Circle to Search mit Google
- Generative Bearbeitung: Größe, Position oder Ausrichtung von Objekten in Fotos ändern
- Edit Suggestion für besser Qualität in Fotos und Videos
- Instant-Slow-Mow für Zeitlupenvideos
- Und vieles mehr …
Das Update ist aktuell für das Samsung Galaxy S21 FE 5G verfügbar. Zeitnah werden noch weitere Geräte folgen und von den zahlreichen Neuerungen und Verbesserungen profitieren.
Update vom 19.05.2024:
Nach ausführlicher Recherche hat sich herausgestellt, dass das Galaxy S21 FE leider keine einzige K.I.-Funktion von Samsung erhalten, die im laufe der letzten Zeit vorgestellt wurden.
Die beschriebenen Funktionen im Artikel sind leider falsch.
Das S21 FE hat leider keine einzige der KI-Funktionen, welche hier aufgelistet sind, vom S24 erhalten, nicht einmal Circle to Search.
Also ich lese nichts, dass das S21 KI Funktionen bekommen soll. Das S21 FE erhält die OneUI 6.1, dass impliziert ja nicht, dass das S21 auch KI Funktionen bekommt.
Dann les mal bitte die Funktionen am Ende des Artikels durch. Das sind die KI-Funktionen des S24. Jedoch hat es keine einzige dieser Funktionen auf das S21 FE geschafft. Daher sind die Informationen falsch.
Gibt es da ein OneUI 6.1 mit und ohne KI? (mein Galaxy A34 hat vor 2 Tagen auch 6.1 erhalten; egal, ich verwende den Microsoft Launcher)
Ja, mein A34 auch vor 2 Tagen das OneUI 6.1 erhalten.
War überrascht das es so schnell kam, hatte erwartet das es noch bis zu 4 Wochen dauert.
Ja, die KI-Funktionen sind nicht an die One UI 6.1 geknüpft, die kommen extra.
Die vollen KI-Funktionen haben nur die höherwertigen Geräte (S-Serie, Z-Serie, Tab-Serie) bis Modelljahr 2022 erhalten. Alle Geräte älter als 2 Jahre und A-Geräte erhalten nur die Upgrades der Oberfläche, jedoch keine KI-Funktionen.
Danke für die Erklärung
Das S21 FE erschien 2022 und es ist aktuell das einzige Gerät, dass One UI 6.1 ohne KI Funktionen erhalten hat. Seltsam ist auch, dass der April Sicherheitspatch enthalten ist, den das Gerät ja bereits letzten Monat bekommen hat.
Möglich wäre auch, dass KI noch nachgeliefert wird. Der Mai Patch dürfte ja die nächsten Tage kommen.
Ich verstehe bis heute nicht, warum circle-to-search als KI Funktion beworben wird.
Es macht einfach nur ne Google Rückwärtssuche von einem Screenshot.
gepostet mit der Deskmodder.de-App für iOS
Die Funktion ist nicht auf Screenshots beschränkt. Du kannst jegliche Anzeige, welche auf dem Bildschirm zu sehen ist, automatisch auf Google suchen lassen. Auch auf das aktuelle Kamerabild, ohne ein Foto zu machen. Und das ist meiner Meinung nach schon KI.
Wenn ich ein Kleidungsstück z.B. bei Instagram sehe, welches mir gefällt, dann kreise ich es einmal ein und bekomme es sofort bei Google von verschiedenen Händlern zum Kaufen angeboten. Sonst würde ich dieses vermutlich nie finden, wenn es nicht angegeben ist. Daher steckt dort, für mich, eine künstliche Intelligenz (KI) dahinter.
„Du kannst jegliche Anzeige welche auf dem Bildschirm zu sehen ist, …“
Du hast gerade nichts anderes als einen Screenshot beschrieben. Es wird ein Screenshot von dem Bereich aufgenommen, das du eingekreist hast und das wird bei der Google Suche eingegeben.
Das ist keine KI. Das kann jedes 10 Zeilen Programm.
gepostet mit der Deskmodder.de-App für iOS
Achso, ja dann bin ich mal auf deinen 10 Zeilen Code gespannt, der aus der Anzeige (Screenshot) mir z.B. ein bestimmtes Kleidungsstück bei Google raussucht. Aber es muss ganz genau dieses Kleidungsstück auf dem Bild sein, was Circle to Search derzeit problemlos finden kann. Oder kann auch gerne eine Pflanze sein.
Wenn du in einem 10 Zeilen Code einen solchen Algorithmus programmierst, der das macht, dann bin ich gespannt darauf
„mir z.B. ein bestimmtes Kleidungsstück bei Google raussucht“
Das Programm sucht dir garnichts raus. Google macht da alles. Es nimmt einfach nur das Screenshot und benutzt die Google-API, um ein reverse-image-search zu machen. Google macht den Rest.
Das ist genau was ich seit Jahren manuell mache. Sehe ich irgendwo etwas, was ich nicht kenne: Foto oder Screenshot machen, auf Google das Kamera-Symbol für die Bildersuche antippen und das Bild hochladen. That’s it! Google liefert die Ergebnisse.
gepostet mit der Deskmodder.de-App für iOS
Ich fand Circle-to-Search auch erst sinnlos und uninteressant bis ich es allerdings doch mal getestet habe.
Ich muss dazu sagen das ich ein Galaxy S23 Ultra mit S Pen nutze (Und ja das ist wichtig für meinen Kommentar) und mit dem macht das Feature richtig Spaß.
Aktuell ist meine Mutter im Urlaub und schickt mir von allem möglichen Bilder per Messenger wo ich mich doch mal frage was das ist und vor allem wo. Einmal kurz C-t-S starten mit dem S-Pen das gewünschte Motiv einkreisen und Google sagt mir alles was ich wissen will.
Ja man könnte auch Bilder erst in der Galerie speichern und dann bei Google hochladen aber so geht es einfach deutlich schneller. Grüße
gut wenn du sagst das google das tut dann frag iech dich warum zeigt google wenn ich ein Foto meiner schuhe mache bilder von kaputten schuhen udn die samsung Ai sagt mir welche schuhe es sind und wo man sie kaufen kann????
„warum zeigt google wenn ich ein Foto meiner schuhe mache bilder von kaputten schuhen“
Weil sie es können xDDD
Anmerkung: Man kann ja nicht nur Bilder für die Suche verwenden sondern absolut alles was auf dem Bildschirm zu sehen ist, so kann man auch Texte oder einzelne Wörter einkreisen und eine Erläuterung dazu bekommen.
ja aber das geht ja bei samsung auch
ich find das bisschen praktischer vorallem weil es direkt intigirert ist da muss ich nciht erst google lense starten
Ist schon klar, dass das alles nur Marketing ist für eine etwas komfortablere Funktion.
Android kann das ja auch ganz ohne Circle to Search. Einfach (egal was man gerade sieht) den Google Assistant öffnen und „Auf Bildschirm suchen“ drücken. Das Ergebnis ist exakt dasselbe.
„Einfach (egal was man gerade sieht) den Google Assistant öffnen und “Auf Bildschirm suchen” drücken. Das Ergebnis ist exakt dasselbe.“
Nicht unbedingt. „Auf Bildschirm suchen“ durchsucht eben den gesamten Bildschirm und zeigt dir entsprechend alles an aber nicht immer gezielt das was man braucht. Da ist Circle-to-Search einfach präziser denn da sucht Google nur genau den Inhalt den du haben willst.
Es wird bereits ein Bereich markiert, der am relevantesten erscheint. Man kann sich aber die Markierung an jede beliebige Stelle setzen.
Wie gesagt, der Kreis ist komfortabler, aber die Funktion überhaupt nicht neu.
@theFraenk
Danke das ist dann an mir vorbeigegangen. Hatte die Google App auch jahrelang deaktiviert bis zu Samsungs AI Update. Komfortabel und schnell ist es definitiv und ich nutze es aktuell auch gern. Was die Zukunft bringen wird werden wir sehen. Vlt ist der AI Hype ja auch irgendwann vorbei.
Ich glaube das Circle-To-Search nur eine Erweiterung für „Auf Bildschirm suchen“ ist. Warum? Wenn man das Feature über die Homebar/Startbutton aktiviert kann man auch Inhalte direkt antippen und muss sie nicht unbedingt einkreisen.
Bei einzelnen Wörtern die man nicht versteht macht das durchaus Sinn.
Mit dem August Update wurde Circle to Search nun nachgeliefert.
Ich habe auf meine handy keine One UI 6.1 bekomme