Skip to main content

Vad är den tekniska singulariteten?

Den tekniska singulariteten , eller helt enkelt singularitet, är ett mångfacetterat koncept i futurism med flera överlappande och ibland motstridiga definitioner.Den mest korrekta och framträdande definitionen av singulariteten gavs av Vernor Vinge i hans uppsats, den kommande tekniska singulariteten .Det hänvisar till den punkt där övermänsklig intelligens skapas tekniskt.Dessa övermänskliga intelligenser kunde sedan tillämpa sin hjärnkraft och expertis på uppgiften att skapa ytterligare eller mer kraftfulla övermänskliga intelligenser, vilket resulterade i en snöbollseffekt med konsekvenser utöver vår nuvarande förmåga att föreställa sig.

Termen teknisk singularitet myntades av analogi till singulariteten imitten av ett svart hål, där naturens krafter blir så intensiva och oförutsägbara att vår förmåga att beräkna materiens beteende under dessa omständigheter sjunker till noll.Ofta nämns i samband med idén om superhuman intelligens i singularitetsdialoger är uppfattningen om att påskynda teknisk förändring.Vissa har hävdat att när lutningen av tekniska framsteg ökar kommer den att kulminera i en asymptot, liknande visuellt som en matematisk singularitet.

Emellertid är denna uppfattning om singulariteten inte densamma som avsedd vinge;Med hänvisning till uppkomsten av övermänsklig intelligens, tillsammans med övermänskliga tänkande hastigheter.(Inklusive smarthet, förmåga att förstå och skapa begrepp, förvandla data till teorier, göra analogier, vara kreativa och så vidare.) Även om övermänskliga intelligenser som skapar ytterligare övermänskliga intelligenser skulle verkligen resultera i accelerationen av tekniska framsteg, skulle framsteg inte bli oändliga, skulle inte bli oändliga,i den meningen att en matematisk singularitet skulle föreslå.

Eftersom övermänskliga intelligenser per definition skulle vara smartare än någon människa, är vår förmåga att förutsäga vad de skulle kunna med en viss tid, materia eller energi osannolikt att de inte ärvara korrekt.En övermänsklig intelligens kanske kan skapa en fungerande superdator av billiga och lätt tillgängliga komponenter, eller utveckla fullfjädrad nanoteknologi med inget annat än ett atomkraftsmikroskop.Eftersom förmågan hos en övermänsklig intelligens att utforma och tillverka tekniska prylar skulle snabbt överträffa de bästa ansträngningarna från mänskliga ingenjörer, kan en övermänsklig intelligens mycket väl vara den sista uppfinningen som mänskligheten någonsin behöver göra.På grund av deras övermänskliga geni och de tekniker som de snabbt kunde utvecklas, kan handlingarna från intelligenser som kommer från en teknisk singularitet resultera i antingen utrotningen eller befrielsen av hela vår art, beroende på attityderna hos de mest kraftfulla supermänskliga intelligenserna gentemot människor.

Oxford -filosof Nick Bostrom, chef för

Oxford Future of Humanity Institute och World Transhumanist Organization , hävdar att hur övermänskliga underrättelser behandlar människor kommer att bero på deras första motiv i det ögonblick av deras skapelse.En snäll övermänsklig intelligens skulle, i att vilja bevara sin vänlighet, förverkliga vänliga (eller vänliga) versioner av sig själv när den självförbättringsspiralen fortsatte.Resultatet kan vara ett paradis där övermänskliga intelligenser löser världens problem och erbjuder konsensual intelligensförbättring för människor.Å andra sidan skulle en skadlig eller likgiltig övermänsklig intelligens sannolikt producera mer av samma, vilket resulterar i vår oavsiktliga eller avsiktliga förstörelse.Av dessa skäl kan den tekniska singulariteten vara den enskilt viktigaste milstolpen som vår art någonsin kommer att konfrontera.

Flera vägar till övermänsklig intelligens har föreslagits av singularitetsanalytiker och förespråkare.Den första är IA, eller

Intelligensförstärkning , tar en befintlig människa och förvandlar henne till en icke -mänsklig being genom neurokirurgi, hjärndatorgränssnitt eller kanske till och med hjärnhjärngränssnitt.Den andra är AI, eller Artificiell intelligens , skapandet av ett dynamiskt kognitivt system som överträffar människor i sin förmåga att bilda teorier och manipulera verkligheten.När någon av dessa tekniker kommer att nå tröskelnivån för sofistikering som krävs för att producera övermänsklig intelligens är osäker, men en mängd olika experter, inklusive Bostrom, citerar datum inom intervallet 2010-2030 som troligt.

Eftersom singulariteten kan vara närmare än mångaskulle anta, och eftersom de första motivationerna från den första övermänskliga intelligensen kan bestämma ödet för vår mänskliga art, ser vissa filosofer-aktivister (singularitärer) singulariteten inte bara som ett ämne för spekulation och diskussion, utan som ett praktiskt tekniskt mål som meningsfullaFramsteg kan göras mot i dag.År 2000 grundades således Singularity Institute for Artificial Intelligence av Eliezer Yudkowsky för att uteslutande arbeta mot detta mål.