Unde sunt oamenii din AI?

IDEI – Încorporarea politetei, a cozilor sociale în AI. Ce se întâmplă dacă ai crea AI care ar funcționa doar dacă i-ai mulțumi și i-ai vorbi. etica orientată spre companie. părinții ar putea seta setările pentru a preda valori. Cum l-ați putea folosi ca platformă de predare? Reabilitare?

Avatar – există o legătură autentică cu lucrurile din jurul tău.

Ce se întâmplă dacă AI ar avea la bază credințe religioase? Budist, creștinism.

cumpărați produse care vă vor oferi inteligența de care aveți nevoie – mergeți la un medic și sunteți lipsit de EQ, aveți și AI pentru a vă ajuta și vă instruiți în EQ.

Etica inteligenței artificiale

Eu n în loc să mă gândesc la etica AI sau în curs de dezvoltare în raport cu efectul etic asupra oamenilor și culturilor, mă voi uita la etica sau codul moral al IA-ului actual, Alexa, Cortana, Siri.

Care sunt valorile pe care le dețin aceste sisteme? Cum se schimbă comportamentul nostru ca răspuns la aceste rețele?

„Amazon Echo este magic. De asemenea, îl transformă pe copilul meu într-un tâmpit. ”

Teoria etică și religioasă

Dacă datele sunt reînnoibile, dacă sunt amprenta finală a întregii activități umane și, în unele cazuri, predictibilitatea umană, vom putea folosi datele pentru a testa teoria religioasă, morală și etică?

Materializarea invizibilului – cât de realist este materializarea?

Dacă ar exista diferite tendințe morale emergente, cum am introduce asta în AI? obținerea unui sistem de credințe care se aliniază la credințele tale și apoi le învață înapoi la tine, te ține sub control.

Sau ce se întâmplă dacă aceste convingeri etice / morale ar fi fost construite în AI, de lumea din ce în ce mai polarizată. Cum ar arăta credințele etice în context?

Teoria minții și profilarea inteligenței

Acest tip tangent a ieșit din conversația cu David Danks. El a menționat că, luând în considerare drepturile AI, considerăm drepturile animalelor, există un anumit nivel de antropomorfizare care are loc în această situație.

Totuși, multe dintre aceste drepturi sunt specifice moravurilor și moralei culturale și integrează un set de interacțiuni sociale. Multe dintre acestea depind de modul în care faceți inferențe din observații și întâmplări, din lumea experimentată.

De exemplu, pe drumuri, oamenii văd oamenii de care trebuie să fie atenți, mașini, copaci etc. Mașinile care conduc singuri văd oamenii nu așa cum vedem noi oamenii, nu văd imaginea bogată, văd pixeli și date de evitat prin viziune computerizată.

Ce se întâmplă dacă am lua oameni din diferite locuri? Un șofer din Pittsburgh ar vedea oameni, copaci, indicatoare etc. Un șofer din Delhi ar vedea mulțimi, o gamă foarte largă de vehicule precare și nesigure etc.

Cum construim idei despre modul în care gândesc alții? Cum construim idei de ce oamenii fac ceea ce fac?

„Datele sunt infinite” – Cennydd Bowles, dacă datele sunt cu adevărat infinite, îi lipsește timpul, nu are trecut, prezent și viitor. Ce se întâmplă dacă tot ceea ce am făcut, împreună cu tot ce am putea face este deja solidificat în date?

Explorarea ideii de etică artificială

Ce se întâmplă dacă am putea crea un sistem care să înregistreze și să prezică procesul de luare a deciziilor pentru oameni, în conformitate cu codul lor etic.

Vizualizarea „de unde vin oamenii”. Auzim că acest lucru este aruncat, mai ales într-o lume atât de polarizată, ce se întâmplă dacă acest sistem ar putea vizualiza literal contextele în care se află oamenii, deci deciziile lor sunt mai ușor de înțeles.

Inspirație vizuală

Acesta este un sistem incan de contabilitate și evidență – se bazează în întregime pe noduri pe frânghie, purtate ca centură pe contabilul comunității. Modelele de noduri sunt unice pentru fiecare individ / familie, conform propriului cont personal. Este în esență o amprentă a datelor lor care este prezentată într-un mod inteligibil , în scopuri administrative.



2. Quilt computational

Acest lucru m-a determinat să mă gândesc la textile și țesături – cum sunt atât de specifice culturilor, oamenilor și locurilor.




Cuvertură de calcul

Lucrul

Teoria cutiei negre umane – liber arbitru și luarea deciziilor










un sistem care vă citește fractalele

unde are loc putregaiul – ce face

MARISA

vizualizare – sistem modular – creșterea cristalelor- sisteme de particule-

putregai – văzând erorile logice – pune la îndoială consistența credințelor

sistemele de culoare vs particule – reprezentarea fizică a inconsecvențelor

coduri morale partajate – familie către

globuri de memorie – blade runner 2049

DIFERIT

complet analog – specimene dintr-un muzeu de istorie naturală- ciclul de viață al lucrului- tu

secțiune transversală – lucru cu raza copacului

Modelul Rhino / Grasshopper



Ideea consistenței morale

„Ceea ce ar trebui să se străduiască oamenii, după estimarea lui Greene, este consistența morală care nu se schimbă pe baza unor informații care nu ar trebui să stabilească dacă oamenii trăiesc sau mor.”

Acest extras a fost preluat din articolul din Atlantic despre răspunsul călugărilor budiști la o variație a problemei căruciorului. Ceea ce se credea a fi o alegere făcută de „psihopați și economiști” a fost făcută și de acești călugări.

Fizicalizarea datelor ar fi, de asemenea, o reprezentare a judecății moralei și a deciziilor pe care le luăm pe baza codurilor noastre morale; ceea ce este considerat prudent sau chiar nobil într-o cultură sau sistem de credință, ar putea fi considerat brutal și inuman într-un altul.

„Sistemele AI trebuie să încorporeze un fel de cadru etic. Chiar dacă nu stabilesc reguli specifice pentru când să ia anumite comportamente, trebuie să fie instruiți cu un fel de simț etic. ”

Articolul continuă să sublinieze că, deși ar trebui să existe un fel de cod etic încorporat în tehnologiile AI, oamenii nu sunt confortabili cu ideea ca companiile să ia decizii din partea lor. „ Din nou, în acest caz, oamenii nu au opinii consecvente. Ei spun, în general, că mașinile ar trebui să fie utilitare și să salveze cele mai multe vieți. Dar când vine vorba de mașina lor specifică, sentimentele lor se răstoarnă. ”

Știm care sunt părțile intuiției noastre morale caracteristici și care sunt bug-uri?

The Thing 2.0




Codul moral este o modalitate de sincronizare cu tehnologiile AI din jurul nostru. De exemplu, atunci când introduceți o mașină cu conducere automată, în loc de o cheie, modul de a activa o mașină ar fi să conectați acest cod. Mașina ar învăța codul tău moral și sistemul tău etic și ar lua decizii pe baza ta. În acest fel, ați fi responsabil, la fel cum ați face dacă ați conduce. Acest lucru ar împiedica, de asemenea, companiile să încorporeze anumite coduri morale în lucrurile pe care le folosim și, prin extensie, în sistemele mai mari în care există.


Numele potențiale pentru acest lucru:

Tipologii ale codului moral








crumple zone – data + society

decodabilitatea formei

agățați formularul, adnotați umbra, reflexia etc.