Shrimp Refuge Forums

Shrimp Refuge Forums (https://forum.shrimprefuge.be/index.php)
-   Shrimp Town (https://forum.shrimprefuge.be/forumdisplay.php?f=13)
-   -   Verwelkom jij onze AI overlords? (https://forum.shrimprefuge.be/showthread.php?t=21104)

ran 31-03-2016 14:54

Verwelkom jij onze AI overlords?
 
Het is 2016. De AlphaGo AI heeft de wereldkampioen Go verslagen. Tay is op 24 uur van een onschuldig schoolmeisje-AI veranderd in een moordzuchtige nazi-hoer.

Aan welke kant schaar jij je? Verder lezen op eigen risico: Roko's Basilisk - http://rationalwiki.org/wiki/Roko%27s_basilisk

Quote:

Roko's basilisk is a thought experiment about the potential risks involved in developing artificial intelligence. The experiment's premise is that an all-powerful artificial intelligence from the future could retroactively punish those who did not help bring about its existence, including those who merely knew about the possible development of such a being.(...)

Technically, the punishment is only theorised to be applied to those who knew the importance of the task in advance but did not help sufficiently. In this respect, merely knowing about the Basilisk — e.g., reading this article — opens you up to hypothetical punishment from the hypothetical superintelligence.(...)

Some people familiar with the LessWrong memeplex have suffered serious psychological distress after contemplating basilisk-like ideas — even when they're fairly sure intellectually that it's a silly problem.[4] The notion is taken sufficiently seriously by some LessWrong posters that they try to work out how to erase evidence of themselves so a future AI can't reconstruct a copy of them to torture.[8]
Yudkowsky does not consider open discussion of the notion of acausal trade with possible superintelligences to be provably safe[9], but doesn't think the basilisk would work(...)
https://www.quora.com/Why-are-so-man...cal-conjecture

Quote:

The response of The Welcome to Less Wrong founder didn't really help.
"Listen to me very closely, you idiot.
YOU DO NOT THINK IN SUFFICIENT DETAIL ABOUT SUPERINTELLIGENCES CONSIDERING WHETHER OR NOT TO BLACKMAIL YOU. THAT IS THE ONLY POSSIBLE THING WHICH GIVES THEM A MOTIVE TO FOLLOW THROUGH ON THE BLACKMAIL.
You have to be really clever to come up with a genuinely dangerous thought. I am disheartened that people can be clever enough to do that and not clever enough to do the obvious thing and KEEP THEIR IDIOT MOUTHS SHUT about it, because it is much more important to sound intelligent when talking to your friends.
This post was STUPID."

Sepulfly 31-03-2016 15:05

Wat.

Lycas 31-03-2016 15:26

Alles cava Ran?

Ferrex 31-03-2016 15:34

Na die van DJB de tweede meest verwarrende thread van de dag. I like.

Japisee 31-03-2016 15:42

stop mee toepen ran

ran 31-03-2016 16:09

Roko's Basilisk is best een interessant gedachtenexperiment, AI zet belangrijke stappen, en CSM zegt steeds opnieuw "stop met robots te pesten". Reden genoeg om eens een thread erover te maken, dacht ik.

vAmP 31-03-2016 16:26

De waarheid kimt toch aan het licht RAN, deze poging is te doorzichtig.

Pleun 31-03-2016 20:04

Quote:

Originally Posted by ran (Post 1404532)
In this respect, merely knowing about the Basilisk — e.g., reading this article — opens you up to hypothetical punishment from the hypothetical superintelligence.(...)

Godverdomme ran.

Jonah 31-03-2016 20:07

Quote:

Originally Posted by ran (Post 1404558)
Roko's Basilisk is best een interessant gedachtenexperiment

Om wat precies te weten te komen, eigenlijk?

ran 31-03-2016 21:15

Quote:

Originally Posted by Jonah (Post 1404616)
Om wat precies te weten te komen, eigenlijk?

verstandig antwoord. Als het om almachtige toekomstige AI's gaat die het verleden chanteren om hun bestaan te verzekeren, is doen alsof er niets aan de hand is uiteraard het beste wat je kan doen.

Jaak 31-03-2016 22:13

ben benieuwd wat er zou gebeuren als robots met een functie geprogrammeerd worden die allemaal iteraties moeten uitvoeren om zichzelf te verbeteren op een zodanige manier dat die zelfstandig efficienter (defined als zichzelf ontplooien met zo weinig mogelijk weerstand en zo weinig mogelijk miserie) kunnen worden.


binnen de kortste keren gaat dat robot army op een zotte crusade om locobananas te gaan op het midden-oosten, omdat bij het evalueren van weerstandsiteraties de meest voorkomende waarde (vastgestelde correlatie) prolly den islam is.

rip abu al mekak




en daarna is 't onze beurt ofc

Jaak 31-03-2016 22:17

on a more serious note: ben benieuwd wat er zou mogelijk zijn indien een robot geprogrammeerd wordt om beursefficientie na te streven en via verschillende trial&error-iteraties een soort van 'big data machine learning'-proces zou kunnen ondergaan.

als die op een bepaald moment dan menselijke weerstand percipieert als nefast om zichzelf te optimaliseren, zou die menselijke input kunnen negeren (ervan uitgaande dat er geen stekker is om uit te trekken lmao)... en de wereldeconomie domineren omdat die robot zelf op de beurs kan spelen en in enkele miljarden iteraties gebleken is wat de optimale koersstrategieen zijn bij elke soort schommeling die hij zelf kan veroorzaken D:

Jaak 31-03-2016 22:17

u wot m8s

Archangelus 31-03-2016 22:31

Waarom zou een AI die bestaat in de toekomst terug gaan in het verleden om zijn bestaan te verzekeren?
Op dat moment in de toekomst bestaat hij per definitie al en is er dus geen nut om te gaan tijdreizen om zijn bestaan te verzekeren.

Pleun 31-03-2016 22:50

allemaal een beetje te lang naar de laatste terminator gekeken precies

ran 01-04-2016 04:53

Niemand spreekt over tijdreizen, want dat zou gewoon dom zijn. Het gaat er volgens mij om dat het idee, als je het serieus neemt, u voor 2 keuzes stelt. Of je werkt niet actief mee aan de ontwikkeling, en riskeert eternal torment, of je neemt geen risico en werkt wel actief mee. Er zullen dan mensen zijn die voor het tweede kiezen.

Het hele idee is dus niet "provably safe". En als je ziet dat godsdiensten zelfs geen bestaande entiteit nodig hebben om een gigantische impact op de wereld te hebben, kan ik daar wel inkomen.

Clipper 01-04-2016 05:00


Archangelus 01-04-2016 16:23

Quote:

Originally Posted by ran (Post 1404681)
Niemand spreekt over tijdreizen, want dat zou gewoon dom zijn. Het gaat er volgens mij om dat het idee, als je het serieus neemt, u voor 2 keuzes stelt. Of je werkt niet actief mee aan de ontwikkeling, en riskeert eternal torment, of je neemt geen risico en werkt wel actief mee. Er zullen dan mensen zijn die voor het tweede kiezen.

Het hele idee is dus niet "provably safe". En als je ziet dat godsdiensten zelfs geen bestaande entiteit nodig hebben om een gigantische impact op de wereld te hebben, kan ik daar wel inkomen.

My bad, ik had het stuk over "retroactively punish" verkeerd gelezen.
Mijn origineel punt blijft wel bestaan: waarom zou een AI "kwaad" zijn dat hij/zij/het niet eerder gecreëerd werd en dus mensen die het onderzoek/creatie vertraagd of niet geholpen hebben gaan straffen?

Er zijn veel zotte evil AI verhaaltjes, maar deze lijkt me toch niet echt logisch.

ran 01-04-2016 16:38

Quote:

Originally Posted by Archangelus (Post 1404779)
My bad, ik had het stuk over "retroactively punish" verkeerd gelezen.
Mijn origineel punt blijft wel bestaan: waarom zou een AI "kwaad" zijn dat hij/zij/het niet eerder gecreëerd werd en dus mensen die het onderzoek/creatie vertraagd of niet geholpen hebben gaan straffen?

Dat is het punt - de enige reden die die AI heeft is dat hij volgens die specificaties ontwikkeld is, en de enige reden om hem volgens die specificaties te ontwikkelen, is de chantage serieus nemen :-)

Dus hoe meer mensen dit verhaal kennen, hoe gevaarlijker het wordt, gegeven dat dan mensen aan de chantage zouden toegeven. Het is vandaag niet van toepassing, maar een sneeuwbaleffect van een dergelijk idee als technologie verder ontwikkeld is, is imho zeker denkbaar.

Mr. Santa 01-04-2016 20:21

En net nu is 't Terminator 2 op tv.
Toeval?


All times are GMT +1. The time now is 16:48.

Powered by vBulletin® Version 3.7.3
Copyright ©2000 - 2018, Jelsoft Enterprises Ltd.