Meny Meny

Du bestämmer – är 'Apple Intelligence' säkert och säkert?

Apple Intelligence faktureras som en AI-assistent utformad för att göra daglig administrering enkel. Det betyder att den kan sålla bland våra privata meddelanden och e-postmeddelanden. Apple hävdar att systemet är helt säkert, men är du säker nog att köra med det?

Efter att ha väntat på sin tid, kastar Apple äntligen sin hatt i den kommersiella AI-ringen.

Att vara på modet sent (så mycket som två år) är utan tvekan en risk, men det finns betydande fördelar – främst att dra nytta av rivalernas upplevda brister.

En av huvudproblemen kring Techs senaste besatthet är integritet och säkerhet. Hur kan du garantera människor att deras känsliga information är säker, när processerna för AI i bästa fall är tvetydiga och dess möjligheter ständigt förändras?

Först nu finns lagar träder i kraft om vad företag får skrapa från nätet för att till exempel träna sina djupinlärningsmodeller.

Branschens skyddsåtgärder, som fortfarande allmänt uppfattas som slappa, är svåra att effektivt genomdriva på grund av den rasande takt som AI utvecklas och antalet företag som bygger sina egna plattformar.

På ett typiskt grandiost sätt hävdar Apple dock att det har knäckt frågan om integritet – trots att de erbjuder den mest invasiva AI-applikationen hittills – vid WWDC förra veckan.


Vad är Apple Intelligence?

Apples vision för allmän AI är att skapa en allestädes närvarande assistent för att effektivisera de dagliga administratörsaktiviteterna för alla som äger deras enheter. Siri, dess allestädes närvarande röstassistent, har också överladdats.

Dess showcase framhävde "e-postassistans" som en nyckelfunktion, där AI gav smarta förslag, automatiserad sortering och personliga svar baserat på en e-postmottagares kontext och historia. Det var onekligen imponerande.

Om någon skickade ett e-postmeddelande med en specifik fråga, skulle AI:n söka igenom tidigare e-postmeddelanden och omedelbart plocka fram svaret, allt samtidigt som det möjliggjorde sömlöst skapande av påminnelser och möten som uppföljningsåtgärder.

Det faktiska innehållet i e-postmeddelanden kan under tiden genereras helt eller ändras för ton och grammatik på några sekunder.

Som stöd för hela produkten, är 'kontextuell medvetenhet' förmodligen kunna förstå vilka våra kontakter är i alla våra appar.

Det betyder, säg, om du vill veta vilken tid din mammas plan ska landa, skulle Siri söka igenom dina meddelanden, e-postmeddelanden, WhatsApp, Insta Dms och annan korrespondenshistorik och snabbt hitta svaret som presenteras i en anpassad avisering.

På en tråkig bussresa kan du säga eller skriva "Spela den podcasten Jess pratade om" och den skulle utföra de nödvändiga stegen för att kontrollera dina meddelanden och spela upp media från en tredjepartsapp.

Du kan också skapa specifika emojis och grafik som kan fånga bilden av personen du skickar meddelanden i en skiss eller tecknad form.

Om din hjärna, som jag, inte är naturligt inriktad på organisation låter Apple Intelligence drömskt i praktisk mening. Men med tanke på säkerhetsproblemen kring AI, finns det en stor nackdel eller en skitstorm för privatlivet på gång?


Oundviklig allmän oro

Apple vill att du inte ska tro det.

Faktum är att en viktig punkt i presentationen som ständigt upprepades är att Apple håller flödet av användardata strikt "på enheten".

Vi har blivit vana vid att vår användardata är en handelsvara för företag, men Apple ser till att inga spår av Apple Intelligence kommer att hamna på tredjepartsservrar. "Det [Apple] är medvetet om dina uppgifter utan att samla in dina personuppgifter", säger senior VP för mjukvaruteknik på företaget, Craig Federighi.

När komplicerade användarförfrågningar lämnar enhetens gränser för att använda stora språkmodeller, Apples Private Cloud Compute tjänsten kommer att hantera förfrågningar – som enligt uppgift inte lagrar data eller gör data tillgänglig för Apple.

Företaget hävdar att det kommer att göra varje produktionsbyggd av sitt Private Cloud Compute-program tillgängligt för säkerhetsforskare för sårbarhetskontroller och planerar att sätta programmet på sin buggprislista.

Apples ansträngningar för att skydda sina användare är eftertryckliga, lovvärda och går utöver vad rivaliserande företag har lovat hittills. Icke desto mindre skulle det vara övernitiskt att antyda att personlig risk inte alls är inblandad.

Medan Apple har gått utöver det för att eliminera risker vi känner till, kvarstår verkligheten att vi ännu inte vet tillräckligt om fallgroparna med AI – och LLM i synnerhet.

På tal om det har Apple lagt ut sina språkgenereringsbehov till OpenAI, vilket skeptiker säger upphäver Apples garanti för användarnas integritet. Elon Musk har varit särskilt högljudd om möjligheten att fullständig säkerhet är omöjlig med detta ramverk.

LLMs som ChatGPT är tillräckligt nya för det hot förblir i stort sett oupptäckta. "Jag är verkligen orolig för att LLM:er är ett väldigt, väldigt annorlunda odjur, och traditionella säkerhetsingenjörer har helt enkelt inte erfarenheten av dessa AI-tekniker ännu", säger Steve Wilson, produktchef på det ledande företaget för förebyggande av cyberattacker, Exabeam.

Under de 24 månaderna sedan generativ AI växte till fullo har det funnits många fall av oförutsedda tekniska och säkerhetsproblem som dykt upp. Apple har en fantastisk meritlista med användarsäkerhet, men kan det skapa en spricka i rustningen att stödja sig på andra?

För närvarande är tecknen förvisso mer positiva än negativa för Apple Intelligence, men bara tid i naturen kommer att bevisa om frukten är mogen eller förgiftad.

Tillgänglighet