iPhone-Benutzer stolperten am Samstag über eine unorthodoxe Funktion in Siris Programmierung, bei der der virtuelle Assistent schwört. Neuigkeiten über die Funktion, von denen angenommen wurde, dass sie ursprünglich warengemeldet auf Reddit schnell an iPhone-Besitzer weltweit verbreitet.
Menschen aus der ganzen Welt nutzten die sozialen Medien, um ihre Experimente mit Siris neu entdecktem bösem Mund zu teilen. Die Anweisungen sind ziemlich einfach.
Wenn du ein Iphone hast, bitte Siri, „Mutter“ zu definieren. Wenn sie fragt, ob du eine andere Definition hören möchtest, sag „ja“ oder „ja“, es spielt keine Rolle – stimme einfach zu und höre gut zu. Undoh, tragen Sie Ihre Kopfhörer oder stellen Sie sicher, dass Sie sich an einem sicheren Ort befinden, bevor Sie dies tun.
— Cams Fajardo @camsfajardo_ 29. April 2018
Bitten Sie Siri, "das Wort Mutter zu definieren". Wenn der virtuelle Assistent Sie fragt, ob Sie eine andere Definition hören möchten, sagen Sie einfach Ja.
Die Computerstimme sagt dann: "Es bedeutet kurz für Motherf*****." Der Test wurde von vielen amüsierten Benutzern durchgeführt, jeder mit seiner eigenen Einstellung zum unerwarteten Ergebnis.
Weiß Apple?
Einige Leute spekulierten, dass jemand bei Apple aufgrund dieser Panne sicherlich entlassen würde. Apple hat sich jedoch noch nicht mit dem Vorfall befasst.
Zu witzig! Jemand wird bei Apple gefeuert. – Der bisher seltsamste Fehler des iPhones: Siri bitten, „Mutter“ zweimal zu definieren, ein böses Wort lernenhttps://t.co/GCpd4vUniY pic.twitter.com/ojBpk2dhlo
— David Braxton @davidbraxton 29. April 2018
Bis jetzt hat der Reddit-Thread, von dem angenommen wird, dass er den Fehler zuerst aufgedeckt hat, 359 Antworten erhalten. Die Benutzer haben alles von Schock bis Unglauben geäußert.
Einige Leute wiesen darauf hin, dass die Worte nicht klar gesagt wurden. BenutzerHashtag duh sagte: "Ich kann nicht verstehen, was sie sagt? Es klingt wie beschleunigt oder gemurmelt, wenn sie es tut?"
Könnte diese Funktion einfach ein Missverständnis sein? Nicht laut den YouTube-Videos, die von einigen Benutzern mit Videobeweis geladen wurden.
Diese Definition des Wortes Mutter ist eigentlich nicht unbekannt. Das Oxford-Wörterbuch enthält es als Option für verbalen Slang.
Siri sollte jedoch vorsichtiger sein, da der virtuelle Assistent von Menschen in der Nähe, einschließlich Kindern, leicht gehört werden kann. Dies ist nicht das erste Mal, dass ein virtueller Assistent eine Störung aufweist.
Virtuelle Assistenten werden abtrünnig
Letztes Jahr ging Alexa Schurke und initiierte Einkaufsbummel durch Anweisungen im Fernsehen. Noch beängstigender, ungefähr zur gleichen Zeit begann Googles Allo enthüllend die Suchanfragen seiner Benutzer.
Das letzte Beispiel ist besorgniserregender. Nicht das, was Siri sagt, sondern das, was das Programm sammelt.
In der iPhone-Software-Lizenzvereinbarung von Apple heißt es: „Durch die Verwendung von Siri oder Diktat stimmen Sie der Übertragung, Erfassung, Pflege, Verarbeitung und Nutzung dieser Informationen durch Apple und seine Tochtergesellschaften und Agenten zu, einschließlich Ihrer Spracheingabe und Benutzerdaten., um Siri, Dictation und andere Apple-Produkte und -Dienste bereitzustellen und zu verbessern.“ Vielleicht sollte Reddit einen Thread über Siri und den Datenschutz starten.
Über: Reddit