X

Новости

Сегодня
Вчера
2 дня назад
19 октября 2018
18 октября 2018

Против роботов-убийц выступили ведущие мировые разработчики искусственного интеллекта. Среди них — пермский Promobot

Кампания, организованная Институтом «Будущее жизни», призывает не поддерживать роботов-убийц. Накануне заседания ООН по системам смертоносного автономного оружия, которое пройдет в августе, более 2400 человек из 160 компаний из 90 стран мира подписали обращение против разработки роботов-убийц. Среди них — генеральный директор Tesla Илон Маск, представители пермской компании Promobot Алексей Южаков и Олег Кивокурцев.

«Если искусственный интеллект (ИИ) начнёт эволюционировать и научится саморазвиваться, люди не смогут влиять на него, — рассказал интернет-журналу „Звезда“ директор по развитию компании Promobot Олег Кивокурцев. — Маловероятно, что ИИ целенаправленно решит уничтожить человечество, но он может попасть не в те руки. Во всех отраслях есть правила этики и регламент, поскольку робототехника — это молодая отрасль, здесь ее еще нет».

По мнению Олега Кивокурцева, нужно прописать правила, касающиеся автономного вооружения. Приводим выдержки их них:

— Наличие красной кнопки, которая позволит ликвидировать систему. Какими бы ресурсами искусственный интеллект ни обладал, какие бы задачи ему ни делегировали, должна быть кнопка «стоп», которая гарантированно выведет систему из строя.

— Грамотное делегирование задач. В 1980-е годы была такая история: радар принял солнечные блики за огненный хвост ядерных ракет. В соответствии с распознанной информацией система ввела все боеголовки в максимальную готовность и отправила сигнал офицеру, чтобы произвести запуск, — это было предусмотрено правилами. Офицер разобрался в ситуации, не нажал на кнопку и буквально спас мир от ядерной войны. Вывод — нельзя делегировать полномочия, способные уничтожить человечество, машине. В частности, не должно появиться полностью автономного оружия массового поражения.

— Регламентация системы прицеливания и навигации. Уже сегодня применяются автоматизированные орудия локального поражения — системы распознавания врагов на танках, системы автоматического обнаружения противников на автоматах и т. д. Стоит понимать, что пока не существует ни одной системы распознавания объектов с точностью 100 %. Всегда есть погрешность. И если для Facebook это простительно, то для вооружения есть риск поражения мирных жителей, жилых поселений. Поэтому стоит регламентировать навигацию и систему прицеливания как можно скорее.

— Важность человеческого фактора. Человек при принятии решений учитывает многочисленные обстоятельства, в том числе моральные, ориентируется на окружающую среду. Основная задача ИИ — повышение эффективности, автоматизация и снижение затрат, ничем другим машина не руководствуется. Главное — поразить противника, даже если при этом под удар попадет жилое поселение. Поэтому не стоит доверять искусственному интеллекту стратегию на финальном этапе. Можно запросить аналитику, наиболее выгодные варианты, но окончательное решение должен принимать человек.

— Протоколирование. Все робототехнические устройства, использующиеся в военных действиях, должны работать по закрытым протоколам, для которых необходимо разработать соответствующие стандарты.

***