Anthropic släppte nyligen en guide för att rulla ut Claude Cowork brett i organisationen. Cowork är ett steg bortom chattfönstret. Det är en agent som arbetar direkt i medarbetarens lokala filer, Slack, Google Drive och webbläsare. Den har integrationer mot Excel och PowerPoint, och kan utvidgas med plugins, skills och egna kommandon.
För många organisationer är detta den första riktiga AI-utrullningen. Och därmed den första riktiga AI-styrningstest.
För det Cowork gör i praktiken är att flytta beslutet om AI-användning från IT-avdelningen till varje medarbetares skrivbord. Skugg-AI blir mainstream-AI över en natt. Och det som tidigare var en framtidsfråga för ledningsgruppen är plötsligt en operativ fråga för varje team.
Det är inte verktyget som är nytt. Det är räckvidden.
Claude i ett chattfönster är en avgränsad upplevelse. Användaren klistrar in text, får svar, kopierar tillbaka. Datan rör sig mellan två tydliga punkter. Risken går att resonera kring.
Cowork tar bort dessa gränser. Agenten har åtkomst till lokala filer. Den läser och skriver i konversationer på Slack. Den hämtar och bearbetar dokument i Drive. Den fyller i kalkylblad och bygger presentationer. Den agerar i webbläsaren.
Det är inte en utvidgning av en chattbot. Det är en ny kategori av arbetsverktyg. Och det är därför Anthropic själva beskriver utrullning som en mognadstrappa i fem steg snarare än en installation.
Tre frågor som avgör om er pilot håller
Innan första teamet öppnar Cowork behöver ledningsgruppen kunna svara på tre frågor. Inte i abstrakt mening. Konkret, dokumenterat, kommunicerat.
Vilka beslut får agenten fatta utan mänsklig granskning? Om en analytiker ber agenten “skicka det här till kunden”, är det ett tillräckligt mandat? Om HR ber den “uppdatera lönefilen”, vem äger det utfallet? Som vi konstaterat i Mognadsrapporten är skriven för ledningen: den styrelse som inte har övat på beslutet kommer att fatta det första gången under press.
Vilken data får agenten röra? En agent med läsåtkomst till lokala filer kommer att läsa alla filer den har åtkomst till. Datakatalogen från 2019, det gamla projektet på Drive, exporten från HR-systemet som ingen städade upp. Vad händer när det följer med in i en sammanfattning? Och vart tar sammanfattningen vägen?
Vad händer när något går fel? Inte om. När. Vem upptäcker det? Vem rapporterar det? Hur skiljer ni på en agent som missförstod uppgiften, en användare som missbrukade verktyget och en faktisk incident som behöver eskaleras till tillsynsmyndigheten?
Det här är inte hypotetiska frågor. Det är de frågor varje organisation som omfattas av NIS2, cybersäkerhetslagen eller EU AI Act kommer att behöva svara på vid första granskningen. Skillnaden är om svaret finns innan eller efter en incident.
Anthropics mognadstrappa är klok. Men inte komplett.
Anthropic föreslår en utrullning i fem nivåer: från enkel chatt-Q&A, via teamspecifika integrationer, till organisationsövergripande plugins och skills. Det är en bra struktur. Den speglar hur AI-användning faktiskt mognar i en organisation, från experiment till operativ kapacitet.
Men trappan beskriver bara den ena halvan av mognaden.
För varje steg uppåt i AI-mognad behöver det finnas ett motsvarande steg uppåt i säkerhetsmognad. Annars bygger ni hastighet, inte förmåga. En organisation på AI-nivå tre med säkerhet på nivå ett har inte rullat ut AI. Den har skjutit upp problemet.
Det är därför vi i AI FastTrack arbetar med två trappor parallellt. AI-mognad och säkerhetsmognad ska gå i takt, steg för steg. Inget AI-pilotbeslut tas utan att de motsvarande kontrollpunkterna är på plats. Inget steg uppåt utan att den underliggande styrningen klarar belastningen.
Det är inte en bromskloss. Det är en trygghet att fortsätta.
Champion-team är rätt. Men inte tillräckligt.
Anthropic rekommenderar att börja med ett champion-team som visar vägen. Det är pragmatiskt och bevisat. Det fungerar.
Men det förutsätter att champion-teamet redan har tillgång till en styrningsstruktur som resten av organisationen kan ärva. Roller är definierade. Beslutsrätten är klar. Dataklassificeringen är gjord. Loggningen är på plats. Eskaleringsvägarna är testade.
Om den infrastrukturen saknas blir champion-teamet inte en föregångare. Det blir en proof-of-concept för exakt det som inte ska skalas: AI-användning utan formell styrning. När andra team sedan följer efter, ärver de inte struktur. De ärver tomrum.
Den vanligaste felställningen vi möter är att organisationen tror att styrningen kan formas under utrullningen. Det går inte. Styrningen måste finnas innan piloten, inte efter. Annars är det inte längre en pilot. Det är en rullout som ingen riktigt har godkänt.
Vad ni faktiskt kan börja med imorgon
Det finns saker ni kan börja med direkt, utan att vänta på en formell metod. Tre exempel.
Inventera vilken AI som redan används i organisationen, och hur. Den bilden är nästan alltid större än ledningen tror.
Identifiera de tre till fem beslut där en agent skulle göra störst skillnad. Inte de mest spektakulära. De mest repetitiva.
Bestäm var ni inte vill att en agent ska få verka, och dokumentera det. Det är ofta lättare att dra gränser uppåt än att hitta dem efteråt.
Det är en början. Det räcker inte hela vägen.
När det blir på riktigt
AI FastTrack är vår sjuveckorsmetod för ledningsgrupper som vill omsätta AI-ambitioner till styrbar verksamhetseffekt. Vi börjar med beslutskartläggning, inte verktygsval. Vi mappar säkerhetsmognad mot AI-mognad i varje steg. Och vi lämnar er med en konkret roadmap och en mognadstrappa som er styrelse kan följa upp på, oavsett vilken AI-leverantör ni väljer.
Cowork må vara nytt. Frågorna det väcker är inte det. Det är samma frågor som varje annat verktyg med skrivbordsåtkomst har väckt: vem äger beslutet, vem ser data, vad händer när något går snett. Skillnaden är att svaren behöver vara på plats innan användarna börjar använda verktyget, inte efter.
För när AI väl är på skrivbordet är det för sent att fundera på var besluten ska fattas. Då fattas de redan, hundra gånger om dagen, av agenter som inte vet vad de inte vet.
Behöver ni stöd med att bygga en styrning som matchar er AI-ambition? Kontakta oss för en kostnadsfri genomgång eller läs mer om AI FastTrack.
Fler insikter
Relaterade artiklar
Mognadsrapporten är skriven för ledningen. Inte för krisen.
Statusrapporter testar ingen. När larmet går 02:14 en fredag är det ledningens beslutsförmåga som avgör, inte mognadspoängen. Därför behöver ledningen övas, inte bara informeras.
Compliance-kostnaden är inte en teknikfråga. Det är en styrningsskuld.
Europeiska företag lägger ~150 miljarder euro på regelefterlevnad varje år. AI snabbar inte upp det om styrningen saknas.
Säkerhet som inte kommuniceras är säkerhet som inte finns
Rätt riskbild räcker inte om ledningen inte kan agera på den. Så når du beslut uppåt och beteende nedåt.