Ook bij Siri wordt soms meegeluisterd door mensen
Na medewerkers van Google komen nu ook werknemers van Apple naar buiten met verhalen over onbedoeld opgenomen geluidsfragmenten van Siri die zij moeten beluisteren om de kwaliteit van Apples digitale assistent te verbeteren. In deze fragmenten zijn soms zeer privacygevoelige zaken te horen, zoals seks, privé-gesprekken en zelfs criminele drugdeals, zo vertelt de medewerker aan de Britse krant The Guardian.
Enkele weken terug was er ophef omdat sommige geluidsfragmenten die onbedoeld opgenomen worden door Google Assistent beluisterd worden door medewerkers van Google om de digitale assistent te verbeteren. Medewerkers in België kwamen hiermee naar buiten omdat ze soms naar privé-gesprekken, geweld of seks luisterden die ze ook nog vrij makkelijk konden koppelen aan specifieke gebruikers.
Het ging hier niet om bewuste spraakcommando's om Google Assistent opdrachten te laten uitvoeren of informatie te laten geven, maar om fragmenten die waren opgenomen en naar Google gestuurd als de Assistent per ongeluk geactiveerd werd. Dit per ongeluk activeren van Google Assistent kan gebeuren als mensen iets zeggen wat op 'Hey Google' of 'OK Google' lijkt, of als ze per ongeluk op de Assistent-knop tikken.
Bij Apples digitale assistent Siri blijkt nu hetzelfde te gebeuren: als Siri per ongeluk geactiveerd wordt door klanken die lijken op 'Hé Siri' of als gebruikers onbedoeld op de Siri-knop klikken dan neemt Siri ook fragmenten op die naar Apple worden gestuurd. Net als bij Google wordt van alle Siri-fragmenten (bewuste commando's en onbedoelde activaties) minder dan 1% van beluisterd door medewerkers om te kijken of Siri goed zijn werk doet.
Maar bij deze 'kwaliteitscontrole' zitten dus ook soms zeer persoonlijke geluidsfragmenten die onbedoeld opgenomen zijn. Wel lijken de fragmenten die beluisterd worden iets korter te zijn dan bij Google: meestal hooguit enkele seconden. Wel zijn ze ook niet volledig geanonimiseerd volgens de medewerker (ook al zijn ze niet gekoppeld aan Apple-ID's): locatie-gegevens zijn bijvoorbeeld beschikbaar.
Apple, dat zich er altijd op laat voorstaan dat het je privacy respecteert, reageert als volgt:
A small portion of Siri requests are analysed to improve Siri and dictation. User requests are not associated with the user’s Apple ID. Siri responses are analysed in secure facilities and all reviewers are under the obligation to adhere to Apple’s strict confidentiality requirements.
Of dit geruststellend genoeg is, is de vraag... Je kunt dit uploaden van geluidsfragmenten van onbedoelde Siri-activaties voorkomen door 'Hé Siri' uit te zetten of Siri helemaal uit te schakelen (als je Siri toch niet gebruikt).
Reageer