Fler aktörer ≠ bättre beslut.
I kriser avgörs utfallet av mandat, ansvar och beslutsförmåga — inte inkludering i sig.
Samverkan är ett medel.
Beslutsförmåga är målet.
medium.com/p/samverkan-...
Posts by Waldemar Ingdahl
Intressant att FoF lyfter sorgen.
Men om kryonik förändrar hur vi sörjer, förändrar den också när ett liv anses avslutat.
Det får konsekvenser långt bortom individen.
Cryonics is one example.
The deeper question is broader:
How far can technology actually go?
The Technology Futures and Limits project explores long-term limits—from AI to whole brain emulation.
And what those limits mean for policy, responsibility, and risk.
www.iffs.se/en/research/...
Cryonics isn’t just science fiction anymore.
It’s becoming a policy problem.
No evidence revival works.
But the questions are already real:
– When is someone dead?
– Who is responsible?
Full conference available: youtube.com/playlist?lis...
Det du beskriver är en stabilitetslogik – tekniken separeras för att minska risk och skydda ansvar.
Problemet är att det blockerar faktisk integration.
Nya institutioner hjälper bara om de får samma legitimitet, annars upprepas mönstret.
Det du beskriver är en institutionell fråga.
Inte bara att företag fick makt utan hur den institutionaliserades:
regler, incitament, mandat.
Annars förklarar vi utfallet med ideologi i efterhand, istället för strukturen som gjorde det möjligt.
Så kanske är en av de viktigaste AI-frågorna framöver inte bara teknisk eller moralisk.
Utan institutionell:
Hur anpassar våra beslutsstrukturer sig till AI?
Men i praktiken är AI-frågorna ofta institutionella:
Vilka organisationer förändras?
Vilka incitament skapas?
Hur styrs risk?
I Sverige hamnar samma frågor ofta i andra register:
värderingsdebatt
kulturdebatt
arbetsmarknadsoro
Inte så ofta i institutionell design.
I policytraditioner som i t.ex. USA eller Storbritannien ställs ofta andra frågor om teknik:
– hur ska detta regleras?
– hur förändras marknadsstrukturen?
– vilka incitament skapas?
När institutionerna inte analyseras återstår ofta två tolkningsramar:
etik
makt
Debatten blir då:
Är detta rätt eller fel?
Vem tjänar på det?
Vem förlorar makt?
Jag tror en anledning är att institutioner i svensk debatt ofta behandlas som bakgrund.
Myndigheter
regleringssystem
marknader
ansvarsfördelning
tas för givna.
En sak jag ofta reagerar på i svenska AI-diskussioner:
de glider snabbt mot moral, värderingar och makt.
Men ganska sällan mot institutionell analys.
Därför låter AI-debatter ofta som värderingskonflikter
när de egentligen handlar om institutionell anpassning.
Men konflikten uttrycks sällan direkt.
Den översätts istället till moral:
– rättvisa
– makt
– ansvar
När dessa logiker möts uppstår en konflikt om tempo, kontroll och legitimitet.
Ofta krockar två systemlogiker:
– innovationssystemet (snabb förändring)
– institutionella system (stabilitet och ansvar).
Varför blir nästan alla AI-diskussioner snabbt moralfrågor?
Real decisions don’t come from discussions.
They show up as budget shifts, mandate changes, disappearing priorities.
By then, alternatives are already gone.
Full essay ↓
waldemaringdahl.medium.com/when-institu...
These conversations:
– signal responsibility without assigning it
– build consensus without trade-offs
– keep coalitions intact
Until reality forces change.
Most institutions don’t fail to decide because they lack information.
They fail because decisions create losers.
So instead, they talk.
Not a bug. A feature of governance.
Det gör AI till en governance-fråga lika mycket som en teknologisk fråga.
När organisationer börjar luta sig mot AI-genererad analys förändras också vem som sätter ramarna för beslut.
AI påverkar därför framför allt produktionen av analys och beslutsunderlag.
Historiskt automatiseras främst uppgifter snarare än hela yrken.
En observation jag inte riktigt kan släppa: fokus i AI-debatten ligger nästan helt på jobb, men mycket mindre på beslutsmakt.
Last week’s conference in Stockholm focused on what follows if cryonics is taken seriously.
Not whether it works —
but what institutions are expected to do.
More here:
www.iffs.se/en/calendar/...
@arenamontanus.bsky.social
@futures-studies.bsky.social
#policy #cryonics
People can already sign agreements and be transported across borders after legal death.
But who decides?
Which rules apply?
Who is responsible?
Panel discussion on cryonics in Sweden at a policy conference in Stockholm, focusing on law, ethics, regulation and cross-border issues. Photo credit: Anders Sandberg.
This is what it looks like when a “future question” becomes a real one.
Cryonics is already being discussed in terms of responsibility, law and institutions — not just technology.
The problem isn’t noise.
It’s that we lack frameworks for distinguishing signal from structural change.