Роботууд VS Хүн төрөлхтөн

1137

 

Роботууд VS Хүн төрөлхтөнЭнэ зөгнөл яагаад ч юм үнэн мэт санагддаг. Өөрөө хөдлөгч, сэтгэн бодох чадвартай төмөр бидний оронд дэлхийг удирдах болно. Хэдэн арван жилийн турш хүн төрөлхтний мөхлийн шалтгаан хиймэл оюун ухаан байх болно гэж олон хүмүүс анхааруулсаар иржээ.

Зөвхөн Холливудын зөгнөлд ч биш шинжлэх ухаан, филосифийн салбарт тэргүүлэх эрдэмтэд хүртэл энэ төсөөллийг биелэх боломжтой гэж үздэг. Тэртэйх 1930-аад онд зарим эрдэмтэн "Хиймэл оюун ухаан технологийн асар өндөр хөгжилд хөтөлж очоод бидний дээр гармагцаа хүний оюун ухааныг үгүй хийх болно” гэж үздэг байсан.

Тэгвэл өөр бусад нь үүнийг сайн талтай гэцгээдэг. Ник Бостромын төсөөлж байгаагаар Төгс оюун ухааны ачаар хүн төрөлхтөн хорт хавдар, дэлхийн дулаарал, байгалийн гамшгийг шийдээд зогсохгүй, өөрсдийгөө ч асар өндөр хөгжилд хүргэх боломжтой гэжээ.

Харин Хар нүхний онолоороо дэлхийг байлдан дагуулсан нэрт онолын физикч Стивен Хокинг хиймэл оюун ухааны харанхуй талыг олон дахин онцолсон байв. Тэрбээр "Хиймэл оюун ухааныг бүрэн хөгжүүлнэ гэдэг хүн төрөлхтөн өөрсдийнхөө хойдхыг уншиж байгаа хэрэг болно” гэжээ. Түүний гол үзэл нь Хиймэл оюун ухаантай хүн төрөлхтөн өөрсдөө тэмцэж хүчрэхгүй явдал юм. Гэтэл энэ үзэл үнэхээр байх боломжтой гэж үү. Нэгэнт л хиймэл оюун ухаан чинээндээ тулаагүй, роботууд хэрэглээнд тэгтэл их нэвтрээгүй байгаа одоо цагт ирээдүйд юу хамгийн их хор хохирол учруулах тухай арай бодитой санаа дэвшүүлье.

Бидний бүтээж байгаа Интернетээр холбогдсон ертөнцөд одоо хувийн нууц хадгалах орон зай үлдсэн гэж үү. Google, Facebook, Apple мэтийн технологийн аваргууд дэлхийн цахим ертөнцийг эзлэн авбал юу болох вэ. Аливаа зүйлсийг автоматчилах үйл явц хурдацтай явагдсаар хэдхэн жилийн дараа ажилгүйдэл газар авч, дэлхийн эдийн засаг хямарвал яах вэ. Хөдөлгөөнт төхөөрөмжүүд байгаль орчныг сүйрүүлсээр туйлдаа хүрвэл яах вэ. Эдгээр асуултын хариулт нь тун энгийн "Хүн төрөлхтний мөхөл ирнэ”.

Гэхдээ нэг зүйлийг сануулахад бидний өвөг эцэг хэзээ ч ирээдүйг сүйрлийн бэлгэдэл гэж үзэж байсангүй. Харин тэд ирээдүйг гэрэлтэйгээр, илүү сайхнаар төсөөлдөг байлаа. Нисдэг машин, хүн бүр аз жаргалтай, ямар ч асуудалгүй, магадгүй бүр үхдэггүй, өтөлдөггүй, зөвхөн дэлхий дээрээ ч биш огторгуйн уудмыг нээж илрүүлэн, тэндээ тархан суурьшина гэж төсөөлдөг байлаа. Гэтэл ХХ зуун гарсаар хүн төрөлхтний дунд хамгийн түгээмэл яригддаг асуудал "Мөхөл” гэгч болжээ. Мөхлийн тухай бид ном зохиол бичиж, мөхлийн тухай бид уран сайхны кино бүтээж, мөхлийн тухай л ярьдаг болсон.

Гэхдээ бүр 2015 онд Microsoft компанийг үндэслэгч Билл Гейтс хиймэл оюун ухааны технологийн хөгжилд хүн төрөлхтөн санаа зовних ёстой хэмээн үзэж байгаагаа тодорхой илэрхийлсэн. Тэрбээр "Би супер оюун ухааныг бүтээхийн эсрэг байдаг. Машин, техник бидний өмнөөс зарим ажлыг гүйцэтгэж болох ч супер оюун ухаан гэж байх ёсгүй. Энэ нь бидний удирдан хөтлөх арга хэлбэрээс хамаарна. Хэдэн арван жилийн дараа хиймэл оюун ухаан бидний сэтгэлийг зовоохуйц өндөр түвшинд хөгжих болно” хэмээн хэлжээ.

Тэрбээр энэ тал дээр Tesla компанийг үндэслэгч Элон Маск, Британийн физикч Стивен Хокингтой санал нэгдэж байна. С.Хокинг "Хиймэл оюун ухааныг хөгжүүлэх нь хүн төрөлхтөнд аюултай. Ойрын үед хүнийг давж гарах машин, техник бий болно гэхээс айдас төрж байна” хэмээн мэдэгдсэн билээ.

Тэгвэл хиймэл оюун ухаанаас ер нь хол байя гэх бодлыг анх 2012 он тавдугаар сарын дундуур хятадын тав дахь үеийн сөнөөгч онгоцны нислэгийн дараа дэлхийн тагнуулын албад хөдөлгөөнд орсноор бэхжүүлж байлаа. Тухайн үед J-20 сөнөөгч онгоц нь америкийн F-22 Raptor онгоцтой ив ижил болсон юм. Хоёулаа "стелс” технологийг идэвхитэй ашиглаж байгаа бөгөөд тэдгээрийг удирдахдаа оюуны хиймэл элементүүдийг  өргөн ашиглаж байна.

Цэргийн шинжээчдийн үзэж байгаагаар, "оюуны” зэвсгийн үүрэг улам нэмэгдэх юм. Ингэхдээ  дайны талбарт хүний үүрэг багасах юм. АНУ нь цэргийн техникийг роботын тал дээр дэлхийд тэргүүлж буй болно. Тэгээд ч тэд дэлхий нийтээрээ нийлээд зарцуулж буй хөрөнгөний тал хувьтай тэнцэх зардлыг үүнд зарцуулж байна. Америкийн робот техникийн зэвсгийн хамгийн хүчирхэг салаа бол нисэгчгүй онгоцнууд. Гэсэн хэдий ч эрдэмтдийг одоо болтол  нэг асуулт түгшээж байна. Чипын оюун ухаан хүний дотны найз болж чадах  уу, аль эсвэл энэ нь туйлын аюултай зүйл үү.

2010 онд Мичиганы их сургуулийн эрдэмтэд хиймэл оюун санаа нь хувьсаж болно гэж тогтоосон. Тэд  ДНК –гийн оронд компьютерын кодтой виртуал авидианы арьс бүтээжээ. Ингэхдээ хиймэл оюун нь бие даан ажиллаж чадах бөгөөд тэр маш аюултай, тиймээс түүнийг устгах хэрэгтэй гэдэгт  америкийн эрдэмтэд итгэл дүүрэн байна.

Кентукки мужийн Луисвиллскийн их сургуулийн эрдэмтэн  Роман Ямпольский үзэхдээ, хиймэл овун ухаан нь хүний сэтгэцэнд янз бүрийн аргаар нөлөөлж чадна гэв.

Ингэхэд харин оросын цэргийнхэн үүнээс тэс өөр бодолтой байна. Тэд хиймэл оюун санаа нь хүний эрхшээлд  бүрэн захирагдана гэдэгт итгэлтэй байна. Чухамдаа хүн л аливаа зэвсэглэлийг хэрэгжүүлэх үү, үгүй юу гэдэг шийдвэрийг гаргадаг гэж тэд үздэг.

Энэ асуудал нь Punto Swicher  хөтөлбөрийн зохион бүтээгч Сергей Москалевын анхаарлыг ихэд татжээ.Түүний үзэж байгаагаар, чхуамдаа цэргийн технологиудад анхаарал тавьж байх ёстой гэнэ.

«Хиймэл оюуныг хөгжүүлэхэд хамгийн том аюул занал  нь тэдгээрийг цэргийн зорилгод ашиглаж эхлэнэ гэдгийг  урьдаас  харах хэрэгтэй.   Хиймэл оюун ухаан суулгасан робот нь байлдааны талбарт хайр найргүй алуурчин болдог. Энд маш том аюул занал нуугдаж байгаа бөгөөд олон улсын хамтын нийгэмлэг хиймэл оюун санаатай объектуудыг гаргаж болох уу,үгүй юу гэдгийг бодох ёстой юм. Ийм объектуудад чинь эргэн тойрныхоо хүмүүсийг  ч алж мэднэ шүү дээ» гэж Сергей Москалев хэллээ.

Нилээд хэдэн шинжээчид үзэхдээ,  сэрэмжлэх арга хэмжээнүүдийг хэдий авсан ч гэсэн, хиймэл оюун ухааныг барих боломжгүй юм.  Жишээ нь, америкийн эрдэм-шинжилгээний ажилтан Элизер Юдковский  хиймэл оюуныг бүтээх туршилтаар  хүний оюун  санааны хэмжээний хиймэл оюун ухаан ч хүнийг хууран, түүнээс "оргон зайлж"  чадах юм байна.


Санал болгох

Сэтгэгдэл

АНХААРУУЛГА: Уншигчдын бичсэн сэтгэгдэлд www.ENE.mn хариуцлага хүлээхгүй болно. ХХЗХ-ны журмын дагуу зүй зохисгүй зарим үг, хэллэгийг хязгаарласан тул ТА сэтгэгдэл бичихдээ хууль зүйн болон ёс суртахууны хэм хэмжээг хүндэтгэнэ үү. Сэтгэгдэлтэй холбоотой санал гомдлыг 9318-5050 утсаар хүлээн авна.
>