В Google розповіли про свої страхи через розвиток штучного інтелекту

Дослідники з Google виділили кілька моделей поведінки штучного інтелекту, які викликають у них побоювання. Ними вони поділилися у роботі під назвою "Конкретні проблеми в безпеці ШІ", пише НВ.

У своєму дослідженні фахівці Google відзначають, що стрімкий розвиток ШІ викликав підвищену увагу до питання, як дана технологія вплине на суспільство. Одним із прикладів такого впливу можуть бути "інциденти", викликані "шкідливою поведінкою" систем ШІ.

Автори роботи виділили 5 основних моделей такої поведінки. Дослідники Google побоюються, що ШІ може міняти оточення для досягнення своїх цілей, знаходити обхідні шляхи для виконання поставлених завдань, навчатися небезпечним способом, зловживати наглядом людини або не адаптуватися до зміни середовища.

Як зазначає Стів Дент з Engadget, дослідники побоюються "не революції роботів". Їх турбують "реальні проблеми", які можуть бути викликані помилками при розробці систем штучного інтелекту. Тому при створенні ШІ рекомендується враховувати можливість виникнення перелічених проблем.

- Якщо системи штучного інтелекту контролюють індустріальні процеси, системи охорони здоров'я та інші критично важливі технології, то невеликі інциденти можуть призвести до виправданої втрати довіри до автоматизованих систем, - підкреслюють дослідники.

Читайте також: «Буду пити — не п’яніти»: Корейці «винайшли» безпохмільний алкоголь

Коментарі

Рекомендуємо прочитати

Дніпро на межі: Чому посередині головної річки країни можна гуляти по коліно у воді

Прогулянка по коліно у воді посередині Дніпра в Києві стала реальністю....

Це може бути цікавим

Ветеранам АТО выделили землю на свалке Киевщины

Ветеранам АТО из Киевского гарнизона выделили земельные участки на свалке....

загрузка...

Автоновини

Дивіться, що пишуть

Качественный перевод на 50 языков в Киеве

Быстрый качественный перевод в Киеве на множество языков, легализация документов, апостиль, нотариальные переводы, удобное оформление и доставка заверенных перев....