2021/11/30
Америк доллар
МОНГОЛ БАНК:
2,848.74₮
B30
УЛААНБААТАР
-7°
|
-18°
B30
УЛААНБААТАР
-5°
|
-17°
B30
УЛААНБААТАР
-4°
|
-14°
20:00
S31
-15°
21:00
S31
-15°
22:00
S31
-15°
23:00
S31
-15°
00:00
S31
-15°
01:00
S31
-16°
02:00
S31
-16°
03:00
S31
-16°
04:00
S31
-16°
05:00
S31
-16°
06:00
S31
-16°
07:00
S31
-16°
Энэ мэдээ хуучирсан буюу 2021/09/05 -нд нийтлэгдсэн мэдээ болно.

Фэйсбүүк компани Африк гаралтай хүнийг “мич” ангилалд оруулсныхаа төлөө уучлалт гуйв

Р.Түвшин, iKon.mn
2021 оны 9 сарын 5
iKon.MN
Зураг

Саяхан Фэйсбүүк компанийн хиймэл оюун ухааны систем видео бичлэгт дүрслэгдсэн Африк гаралтай эрэгтэйг “мич” ангилалд оруулж, алдаа гаргажээ.

Тодруулбал Британийн Daily Mail сонины нийтэлсэн видео бичлэгийг үзэж дууссаны дараа Фэйсбүүкийн систем “Мичний тухай бусад бичлэгүүдийг үзмээр байна уу” хэмээн хэрэглэгчдээс асуусан байна.

“Энэ бол байж боломгүй алдаа. Бид болсон явдлын талаар гомдол хүлээж авсныхаа дараа уг системийг зогсоож, дахин ийм алдаа гаргахгүйн тулд шалгаж эхлээд байна” гэж Фэйсбүүк компанийн хэвлэлийн төлөөлөгч Дэни Лэвер өчигдөр мэдэгджээ.

Тэрбээр цааш нь “Хэдийгээр манай хиймэл оюуны систем тасралтгүй сайжирч байгаа ч төгс болж чадаагүй байгаа. Ийм бүдүүлэг агуулгатай мэдэгдлийг уншсан бүх хүмүүсээс бид уучлалт гуйж байна” гэсэн байна.

Ер нь хиймэл оюуны технологид суурилсан автомат системүүд хүмүүсийн арьс өнгөний асуудал дээр алдаа гаргах явдал тасрахгүй байгаа. Саяхан Твиттер компанийн зурагнаас дүрс таних систем цагаан арьст хүмүүст илүү давуу тал үүсгэдгийг судалж тогтоосон юм.

2015 онд Google компанийн Photo аппликэйшн Африк гаралтай хүмүүсийн гэрэл зургийг “горилла” ангилалд багтаасан алдаа гарч байжээ.

Тухайн онд Майкрософт компанийн хиймэл оюунт Tay чатбот хүмүүсийг арьс өнгөөр ялгаварласан бүдүүлэг үг хэллэг ашиглаж эхэлсэн тул ажиллагааг нь зогсоож байв.

 

Эх сурвалж: DPA

 

x