Stilling: Evisdom > teknologi >

Hva er Friendly AI?

Friendly AI er et begrep brukt av Artificial Intelligence (AI) forskere å henvise til AI systemer som, generelt, utføre handlinger som er nyttige for menneskeheten enn nøytrale eller skadelige. Dette betyr ikke blind lydighet-det motsatte, er begrepet som brukes for å beskrive AI systemer som er vennlige fordi de ønsker å være, ikke på grunn av noe eksternt pålagt kraft. I tillegg til å henvise til ferdig systemer, er Friendly AI også navnet på den teoretiske og tekniske disiplinen som ville bli brukt til å lage slike systemer med suksess.

Begrepet "Friendly AI" stammer med Elieser Yudkowsky av Singularity Institute for Artificial Intelligence, som har som mål å skape Friendly AI smart nok til å forbedre sin egen kildekode uten programmerer intervensjon. Hans bok-lengde arbeidet med emnet, Opprette Friendly AI , publisert online i 2001, er trolig den første grundige behandling av emnet hvor som helst. Yudkowsky påkaller argumenter fra evolusjonær psykologi og andre kognitive vitenskaper for å støtte sin tilnærming til problemet med Friendly AI.

Friendly AI anses viktig som en akademisk disiplin fordi tidligere forsøk på å "svare" på problemet med useriøse AI generelt påberopes strenge programmessige begrensninger, som er bundet til å kollapse under alternative tolkninger, da AI blir smartere enn mennesker , eller bare når den får muligheten til å omprogrammere seg selv. Antropomorfisme er også et problem i AI. Fordi evolusjonen bygger organismer som har en tendens til å være egoistisk, mange tenkere anta at alle AI vi bygger vil ha den samme tendensen, enten umiddelbart eller etter å ha blitt smart nok.

Evolution bygger organismer med selvsentrerte målet systemer fordi det er ingen annen måte. Altruistiske mål systemer tok mange millioner år å utvikle seg, og bare gjorde det under forhold der medlemmer av samme stamme hadde mye å vinne ved å hjelpe hverandre og mye å tape ved å forsømme å gjøre det. Men hvis vi skulle designe en tanke fra bunnen av, kunne vi bygge den uten en selvsentrert målet system. Dette ville ikke være "å begrense AI"-det ville bare være å lage en AI som er uselvisk av natur.

Ovennevnte observasjon er en av mange som bidrar til feltet Friendly AI, noe som er svært ny og trenger fortsatt mye arbeid. Noen AI forskere hevder at vi ikke kan fastslå designfunksjoner nødvendige for å gjennomføre Friendly AI før vi har smartere AI-systemer til å eksperimentere på. Andre hevder at en ren teoretisk tilnærming er ikke bare mulig, men etisk er nødvendig før du starter et alvorlig forsøk på generell AI.

----------------------------------
Forholde Artikkelen:
----------------------------------