Cover Image for "May we expect aligned superintelligence?" with dr. Simon Friederich
Cover Image for "May we expect aligned superintelligence?" with dr. Simon Friederich
50 Going

"May we expect aligned superintelligence?" with dr. Simon Friederich

Hosted by Existential Risk Observatory & Jesper Heshusius
Registration
Welcome! To join the event, please register below.
About Event

[Nederlands onderaan]

Artificial intelligence could change our world beyond recognition. When AI surpasses human level, we could face an existential threat to humanity. AI alignment, or making sure AI acts in accordance with our values, is often seen as a solution.

But is it even possible to program the preferences of AI so that they align with those of humans? And which human values and preferences are we speaking of anyway?

Our guest Simon Friederich is associate professor of philosophy of science and technology at the University of Groningen. He will be joining us on Wednesday the 11th of December to speak about AI alignment.

After an existential risk introduction and a talk by Simon Friederich on this topic, there'll be ample opportunity for questions and discussion. These events, organised by the Existential Risk Observatory, are free and open to all. The main programme is from 8:00-9:30, after which you're welcome to join us for drinks.


Kunstmatige intelligentie kan onze wereld drastisch gaan veranderen. Als AI mensen voorbij streeft in capaciteiten zou dit een existentiële bedreiging voor ons kunnen vormen. Het zorgen voor een juist afstemming van AI met onze menselijke waarden, ook wel AI-alignment genoemd, zou de oplossing hiervoor moeten zijn.

Maar, is het überhaupt mogelijk om de voorkeuren van kunstmatige intelligentie zo te programmeren dat ze overeenkomen met die van mensen? En: met welke menselijke waarden en voorkeuren eigenlijk?

Onze gast Simon Friederich is universitair hoofddocent wetenschaps- en techniekfilosofie aan de Universiteit Groningen. Op woensdag 11 december neemt hij ons mee in een fundamenteel vraagstuk over AI-alignment.

Na een introductie door ons op het gebied van existentiële risico's en een lezing van Simon Friederich over AI-alignment is er de mogelijkheid om vragen te stellen en met elkaar in gesprek te gaan. Deze avonden, georganiseerd door het Existential Risk Observatory, zijn gratis en open toegankelijk. Het inhoudelijke programma duurt van 20:00 tot 21:30, daarna ben je welkom om na te praten met een borrel.

Location
LAB111
Arie Biemondstraat 111, 1054 PD Amsterdam, Netherlands
50 Going