Scenen saknar motstycke. Himlar, jord, berg erbjuds ett förtroende. De vägrar. Inte av trots utan av insikt: de förstår vad bördan innebär. Sedan träder människan fram och säger ja.
Vi erbjöd himlarna och jorden och bergen förtroendet, men de vägrade att åta sig det och bävade för det, men människan åtog sig det. Hon är ständigt beredd till synd och tanklöshet.1
Den koraniska termen är amana. Ordet rymmer mer än “förtroende” eller “ansvar”: det betecknar den moraliska kapaciteten själv, förmågan att välja rätt och stå till svars för valet. Exegeterna har tolkat versen olika — al-Tabari betonade lydnadsaspekten, al-Qurtubi den moraliska medvetenhetens bredd, andra har sett en hänvisning till tawhid eller till shariaförpliktelserna i stort.2 Men oavsett tolkning kvarstår versens grundläggande påstående: amana kräver en bärare som kan bäva, som kan välja, som kan fela. Bergen kunde inte fela. Därför kunde de inte bära.
Fjorton århundraden senare bygger vi system som fattar beslut om domar, anställningar, kreditvärdighet och medicinsk triage. Systemen felbedömer. Men de kan inte bäva.
Sultanens tomt
Ibn Qayyim al-Jawziyya beskrev hjärtat som kroppens konung. Lemmarna är dess armé och undersåtar: de lyder hjärtat av naturen, de kan inte annat. Inget lem rör sig utom på hjärtats befallning, och ingen tanke eller vilja tar form utom genom dess styre.3 Hela denna ordning förutsätter att konungen är vaken. Att någon regerar.
Beskrivningen rymmer en precis insikt om vad beslut egentligen är. Ett beslut i denna mening är inte en beräkning: det är en handling där hjärtat väger, tvivlar, tar ansvar. Förnuftet kan räkna. Lemmarna kan verkställa. Ingen av dem kan regera. Regerandet kräver det som bergen saknade: en medveten vilja som kan stå till svars.
Ersätt nu konungen med en algoritm. Inte rådgivaren, utan konungen. Inte beräkningen, utan beslutet. EU:s AI-förordning, fullt tillämplig från augusti 2026, ställer frågan i juridisk form: artikel 14 kräver att högrisk-AI-system ska ha “mänsklig tillsyn”, att en människa alltid ska kunna förstå systemets kapacitet, tolka dess resultat och välja att bortse från dess bedömning.4 Den svenska utredningen SOU 2025:101 konkretiserar och skärper kraven på insyn och ansvarsutkrävande.5
Men kravet avslöjar ett djupare problem. Om en människa formellt ska kunna överpröva en algoritm men saknar tid, kunskap eller incitament att göra det — vem regerar då? Konungen har fått en rådgivare som i praktiken styr. Titeln finns kvar. Makten har förflyttats.
Ansvarets lucka
Det svenska rättssystemet vilar på en enkel premiss: någon måste vara ansvarig. Ansvarsfrihet är undantaget — den som sover, den som är sinnessjuk, den som handlar under tvång. Ansvarsutkrävande är regeln. Strindberg formulerade principen brutalt: “Den som sover är icke ansvarig för sina handlingar.”6 Implikationen är lika tydlig: den som är vaken är det.
AI skapar vad filosofen Andreas Matthias 2004 kallade en ansvarslucka: varken utvecklaren, användaren eller maskinen kan fullt ut hållas ansvarig för ett algoritmiskt beslut.7 Utvecklaren programmerade inte det enskilda utfallet. Användaren förstod inte beräkningen. Maskinen förstod ingenting alls. Ansvaret löses upp i en kedja där varje länk pekar på nästa.
Koranen tillåter ingen sådan upplösning. “Varje själ är ansvarig för vad den har gjort”8 — formuleringen är enskild, odelbar. Ansvaret kan inte distribueras, delegeras, algoritmiseras. En syndare bär inte en annan syndares börda.9 Denna individuella odelbarhet är amanas kärna: förtroendet gavs till varje människa, inte till institutioner, inte till system, inte till processer.
Ibn Hazm fastslog principen i rättslig form: rättvisa i domslutet kräver att man hör båda parter innan man fäller domen.10 Det låter enkelt. Men höra i moralisk mening — förstå en människas belägenhet, väga hennes omständigheter, erkänna hennes värdighet — det kräver det hjärta Ibn Qayyim beskrev: konungen som måste vara närvarande, vaken, styrande. En algoritm sorterar.
Sömnen som dödar inifrån
De klassiska lärda fruktade ett tillstånd mer än synd: ghafla. Ibn Qayyim al-Jawziyya definierade det som hjärtats sömn eller dess död — ett slöjans tillstånd där människan rör sig genom världen utan att vara närvarande i sina handlingar.11
Ghafla är inte okunskap. Det är något värre: den medvetna varelsen som upphör att vara medveten. Hjärtat slår. Kroppen fungerar. Men konungen sover. Och i den sömnen töms amana inifrån — inte genom att den tas bort, utan genom att ingen längre bär den.
Algoritmisk delegering är inte ghafla. Inget AI-system sover, eftersom inget har det vakna tillståndet att somna från. Problemet är vad som händer med människan som delegerar. Varje beslut som överlåts till ett system är ett beslut som hjärtat inte längre fattar. Varje automatiserad bedömning är ett ögonblick där konungen inte behöver vara vaken. Vanan att inte vara vaken — det är exakt vad Ibn Qayyim kallade ghafla.
Den som aldrig läste Ibn Qayyim men tänkte längs besläktade linjer var Ellen Key. I Barnets århundrade skrev hon att kulturens uppgift borde vara att “göra människan målmedveten och ansvarig på alla områden, där hon endast handlat impulsivt och oansvarigt”.12 Automationens löfte är det omvända: att befria oss från beslutsbördan. Men om bördan är det som gör oss ansvariga — om det är just det tunga, det svåra, det som bergen vägrade, som formar den mänskliga kapaciteten — då är befrielsen en förlust.
Key skärpte insikten: “Det hemliga brott, den äldre moralen fann jämförelsevis ofarligt, blir ur den nya sedlighetens synpunkt större än den öppna brytningen. Ty personligheten förnedras genom de svek och den svaghet, hvarigenom man undandrar sig ansvaret för sin handlings följder.”13 Att undandra sig ansvaret, delegera det till ett system som inte kan fela i moralisk mening, bara i statistisk: ghafla som affärsmodell.
Ställföreträdandets villkor
Koranen beskriver människan som khalifa, ställföreträdare på jorden. Till David säger Gud: “Vi har gjort dig till en ställföreträdare på jorden. Döm därför mellan människor med sanningen och följ inte din lust.”14
Ställföreträdande förutsätter en uppdragsgivare och en uppdragstagare som kan svara. Algoritmen kan inte svara — den saknar det inför vilket svaret avges. Den har inget samvete att rannsakas, ingen ruh att ställas till doms.
Fältet AI-alignment försöker få maskiner att handla i linje med mänskliga värderingar. Forskningens centrala begrepp är feljustering. Men problemet går djupare. Maskinen är inte feljusterad. Den saknar det inre liv som justeringen förutsätter.
Profeten ﷺ varnade: “När förtroendet förskingras, vänta då på den Yttersta stunden.” Och på frågan om hur det förskingras svarade han: “När uppgiften anförtros den som inte förtjänar den.”15
Wussida al-amru ila ghayri ahlihi — “uppgiften anförtros den som inte är dess folk.” Orden ekar i varje automatiserat beslut som fattas utan moralisk bärare. En algoritm kan vara mer precis än en människa. Men precision är inte rättvisa. Ibn Taymiyyah definierade rättvisa som att behandla lika fall lika och skilja mellan det som verkligen skiljer sig åt — att förstå saker som de är och fullända dem.16 Att förstå saker som de är kräver mer än mönsterigenkänning. Det kräver den medvetna viljan att se.
En lucka som alltid funnits
Det islamiska perspektivet är inte entydigt skeptiskt till all delegering. Maqasid al-sharia — den islamiska rättens ändamålslära — erkänner att det som tjänar allmänintresset (maslaha) kan vara tillåtet under rätt villkor. Samtida forskare inom maqasid-traditionen har argumenterat för att viss beslutsfattning kan delegeras till system om mänsklig tillsyn upprätthålls. En domare har genom historien kunnat använda redskap, rådgivare, prejudikat. Men domen måste vara hans: fattad med det hjärta som bär amana.
Vad som gör AI-frågan annorlunda är den specifika arten av delegering, den där det mänskliga beslutsögonblicket försvinner. En domare som följer en rådgivares rekommendation har fortfarande fattat beslutet. En domare vars system automatiskt genererar utfall som hon bekräftar med ett klick har inte det. Hon utför en gest vars form är mänsklig men vars substans är maskinell.
Ibn Khaldun varnade: “De som inte är kvalificerade för domstolen bör inte bli domare, så att de inte vilseleder dem som söker rätt väg.”17 Kvalifikationen han avsåg var inte teknisk. Den var moralisk: förmågan att bära ansvarets fulla tyngd. Den förmågan kan inte programmeras. Den kan bara bäras.
Erbjudandet som står kvar
Vi lever i en tid som försöker lösa ansvarets problem genom att avskaffa det. Automationsdrömmen — att befria människan från beslutens börda — är i grunden en dröm om att slippa vara den varelse som sa ja när bergen vägrade.
Men erbjudandet står kvar. Varje ögonblick där en människa fattar ett beslut i medvetenhet om dess tyngd är ett ögonblick där amana bärs. Varje ögonblick där beslutet överlåts till något som inte kan bäva är ett ögonblick där det som gör oss mänskliga tunnas ut.
Oscar Levertin skrev om “hjärtat, som icke tål att underordna sig under tanken men själf vill härska”.18 Han talade om den romantiska konstnären. Men formuleringen bär längre. Hjärtat — al-qalb — som vägrar abdikera, som insisterar på att regera trots sin ofullkomlighet, trots sin benägenhet till synd och tanklöshet: det är den mänskliga exceptionalism Koranen beskriver. Inte en triumf. En börda.
Bergen visste bättre. De bävade och vägrade. Vi sa ja. Frågan som vår tid ställer är inte om vi kan bygga maskiner som beslutar åt oss — den är redan besvarad. Frågan är om vi, genom att låta dem göra det, långsamt håller på att ångra det ja som gjorde oss mänskliga.
Footnotes
-
Koranen, al-Ahzab 33:72. ↩
-
Al-Tabari, Jami’ al-Bayan, och al-Qurtubi, al-Jami’ li-Ahkam al-Qur’an, kommentarer till 33:72. Se även IslamQA, What is meant by al-amaanah in verse 33:72?, https://islamqa.info/en/answers/145741. ↩
-
Ibn Qayyim al-Jawziyya, Ighathat al-Lahfan min Masayid al-Shaytan, kapitlet om hjärtats herravälde över lemmarna. Jfr al-Tibb al-Nabawi där han beskriver hjärtat som kroppens konung och lemmarna som dess soldater. ↩
-
Europaparlamentets och rådets förordning (EU) 2024/1689 (AI-förordningen), artikel 14. Se https://artificialintelligenceact.eu/article/14/. ↩
-
SOU 2025:101, Anpassningar till AI-förordningen, Regeringskansliet. Se https://regeringen.se/rattsliga-dokument/statens-offentliga-utredningar/2025/10/sou-2025101/. ↩
-
August Strindberg, Svarta fanor. ↩
-
Begreppet responsibility gap myntades av Andreas Matthias, “The responsibility gap: Ascribing responsibility for the actions of learning automata”, Ethics and Information Technology 6 (2004), s. 175–183. Se även Filippo Santoni de Sio & Giulio Mecacci, “Four Responsibility Gaps with Artificial Intelligence”, Philosophy & Technology 34 (2021), s. 1057–1084. ↩
-
Koranen, al-Muddaththir 74:38. ↩
-
Koranen, Fatir 35:18. ↩
-
Ibn Hazm al-Andalusi, al-Taqrib li-Hadd al-Mantiq. ↩
-
Ibn Qayyim al-Jawziyya, Madarij al-Salikin. I al-Wabil al-Sayyib utvecklar han temat: “Ghafla är hjärtats sömn inför sökandet efter detta liv, och det är en slöja över det; om denna slöja inte lyfts genom åminnelse förtjockas den.” ↩
-
Ellen Key, Barnets århundrade. ↩
-
Ellen Key, Lifslinjer, första delen. ↩
-
Koranen, Sad 38:26. ↩
-
Al-Nawawi, Riyad al-Salihin, kapitlet om amana, via Sahih al-Bukhari. ↩
-
Ibn Taymiyyah, al-Radd ‘ala al-Mantiqiyyin. ↩
-
Ibn Khaldun, Muqaddimah. ↩
-
Oscar Levertin, Diktare och drömmare. ↩