Advertisement · 728 × 90

Posts by Waldemar Ingdahl

Preview
Samverkan är ett medel, beslutsförmåga är målet Varför inkludering utan styrning kan försvaga säkerheten

Fler aktörer ≠ bättre beslut.

I kriser avgörs utfallet av mandat, ansvar och beslutsförmåga — inte inkludering i sig.

Samverkan är ett medel.
Beslutsförmåga är målet.

medium.com/p/samverkan-...

2 days ago 0 0 0 0

Intressant att FoF lyfter sorgen.

Men om kryonik förändrar hur vi sörjer, förändrar den också när ett liv anses avslutat.

Det får konsekvenser långt bortom individen.

4 days ago 1 1 0 0
Preview
The technology futures and limits project

Cryonics is one example.
The deeper question is broader:

How far can technology actually go?

The Technology Futures and Limits project explores long-term limits—from AI to whole brain emulation.

And what those limits mean for policy, responsibility, and risk.

www.iffs.se/en/research/...

1 week ago 2 0 0 0
Preview
Cryonics - YouTube

Cryonics isn’t just science fiction anymore.
It’s becoming a policy problem.

No evidence revival works.
But the questions are already real:

– When is someone dead?
– Who is responsible?

Full conference available: youtube.com/playlist?lis...

1 week ago 2 0 1 0

Det du beskriver är en stabilitetslogik – tekniken separeras för att minska risk och skydda ansvar.

Problemet är att det blockerar faktisk integration.

Nya institutioner hjälper bara om de får samma legitimitet, annars upprepas mönstret.

1 week ago 1 0 0 0

Det du beskriver är en institutionell fråga.

Inte bara att företag fick makt utan hur den institutionaliserades:

regler, incitament, mandat.

Annars förklarar vi utfallet med ideologi i efterhand, istället för strukturen som gjorde det möjligt.

1 week ago 0 0 1 0

Så kanske är en av de viktigaste AI-frågorna framöver inte bara teknisk eller moralisk.

Utan institutionell:

Hur anpassar våra beslutsstrukturer sig till AI?

1 week ago 0 0 2 0

Men i praktiken är AI-frågorna ofta institutionella:

Vilka organisationer förändras?

Vilka incitament skapas?

Hur styrs risk?

1 week ago 0 0 1 0
Advertisement

I Sverige hamnar samma frågor ofta i andra register:

värderingsdebatt
kulturdebatt
arbetsmarknadsoro

Inte så ofta i institutionell design.

1 week ago 0 0 1 0

I policytraditioner som i t.ex. USA eller Storbritannien ställs ofta andra frågor om teknik:

– hur ska detta regleras?
– hur förändras marknadsstrukturen?
– vilka incitament skapas?

1 week ago 0 0 1 0

När institutionerna inte analyseras återstår ofta två tolkningsramar:

etik

makt

Debatten blir då:

Är detta rätt eller fel?
Vem tjänar på det?
Vem förlorar makt?

1 week ago 0 0 1 0

Jag tror en anledning är att institutioner i svensk debatt ofta behandlas som bakgrund.

Myndigheter
regleringssystem
marknader
ansvarsfördelning

tas för givna.

1 week ago 0 0 1 0

En sak jag ofta reagerar på i svenska AI-diskussioner:

de glider snabbt mot moral, värderingar och makt.

Men ganska sällan mot institutionell analys.

1 week ago 0 0 1 0

Därför låter AI-debatter ofta som värderingskonflikter
när de egentligen handlar om institutionell anpassning.

2 weeks ago 1 0 0 0

Men konflikten uttrycks sällan direkt.
Den översätts istället till moral:

– rättvisa
– makt
– ansvar

2 weeks ago 1 0 1 0
Advertisement

När dessa logiker möts uppstår en konflikt om tempo, kontroll och legitimitet.

2 weeks ago 1 0 1 0

Ofta krockar två systemlogiker:
– innovationssystemet (snabb förändring)
– institutionella system (stabilitet och ansvar).

2 weeks ago 1 0 1 0

Varför blir nästan alla AI-diskussioner snabbt moralfrågor?

2 weeks ago 1 0 1 0
Preview
When Institutions Talk Instead of Decide Why modern governance produces conversations without consequences

Real decisions don’t come from discussions.
They show up as budget shifts, mandate changes, disappearing priorities.

By then, alternatives are already gone.

Full essay ↓

waldemaringdahl.medium.com/when-institu...

2 weeks ago 0 0 0 0

These conversations:

– signal responsibility without assigning it
– build consensus without trade-offs
– keep coalitions intact

Until reality forces change.

2 weeks ago 0 0 1 0

Most institutions don’t fail to decide because they lack information.
They fail because decisions create losers.
So instead, they talk.
Not a bug. A feature of governance.

2 weeks ago 0 0 1 0

Det gör AI till en governance-fråga lika mycket som en teknologisk fråga.

2 weeks ago 2 0 0 0
Advertisement

När organisationer börjar luta sig mot AI-genererad analys förändras också vem som sätter ramarna för beslut.

2 weeks ago 1 0 1 0

AI påverkar därför framför allt produktionen av analys och beslutsunderlag.

2 weeks ago 1 0 1 0

Historiskt automatiseras främst uppgifter snarare än hela yrken.

2 weeks ago 1 0 1 0

En observation jag inte riktigt kan släppa: fokus i AI-debatten ligger nästan helt på jobb, men mycket mindre på beslutsmakt.

2 weeks ago 2 1 1 0
Preview
Cryonics in Sweden – International Policy Conference on Law, Ethics and Insurance

Last week’s conference in Stockholm focused on what follows if cryonics is taken seriously.

Not whether it works —
but what institutions are expected to do.

More here:
www.iffs.se/en/calendar/...

@arenamontanus.bsky.social
@futures-studies.bsky.social

#policy #cryonics

2 weeks ago 1 0 0 0

People can already sign agreements and be transported across borders after legal death.

But who decides?
Which rules apply?
Who is responsible?

2 weeks ago 1 0 1 0
Panel discussion on cryonics in Sweden at a policy conference in Stockholm, focusing on law, ethics, regulation and cross-border issues. Photo credit: Anders Sandberg.

Panel discussion on cryonics in Sweden at a policy conference in Stockholm, focusing on law, ethics, regulation and cross-border issues. Photo credit: Anders Sandberg.

This is what it looks like when a “future question” becomes a real one.

Cryonics is already being discussed in terms of responsibility, law and institutions — not just technology.

2 weeks ago 2 1 1 0

The problem isn’t noise.
It’s that we lack frameworks for distinguishing signal from structural change.

3 weeks ago 1 0 0 0