Показать сообщение отдельно
Старый 05.06.2017, 23:21   #211
полуэкт
.
 
Аватар для полуэкт
 
Регистрация: 17.07.2012
Записей в дневнике: 2
полуэкт отключил(а) отображение уровня репутации
По умолчанию

Цитата:
Сообщение от adrenalin Посмотреть сообщение
В том то и фишка, что ИИ может взять свой интеллект в свои руки и перестать быть инструментом в наших руках. Многие опасаются именно этого.
Да я понимаю, что опасаются именно этого, но не вижу оснований этого опасаться. Программист сумеет заложить в программу умение самостоятельно выбирать себе цели и задачи, ну тогда появятся первые робкие основания. Далее, программу следует наделить способностями решать поставленную задачу всеми возможными способами, не считаясь с запретами на причинение вреда. Это уже был бы второй, более серьёзный тревожный звоночек. Но подобного рода программы были бы сродни нынешним вирусам. Их следовало бы отлавливать не менее продвинутыми ИИ, заточенными под это. И последнее, что сделало бы эти программы действительно опасными, это допуск их к управлению жизненно важными процессами (обороне, управлению транспортом и атомной энергетикой и пр.) Зная об этих потенциальных опасностях, люди, тем не менее, обязательно попытаются их себе создать в качестве оружия. Но другие люди сделают всё, чтобы ограничить оборот таких программ. Это будет не первое смертоносное оружие на планете и не последнее.
Цитата:
Сообщение от adrenalin Посмотреть сообщение
Два встречных процесса будут иметь целью одно и то же - создание сверхинтеллекта.
До тех пор, пока программу будет писать человек, особо опасаться нечего. Как только написание кода поручат программе, которая не будет иметь ограничений по причинению вреда, вот тут появится программа, принцип работы которой будет человеку не вполне понятен. Вот какой ИИ следовало бы опасаться допускать в свободное обращение.
__________________
Пока одни катят мир, другие бегут рядом с криками: "Куда катится этот мир!?"
полуэкт вне форума   Ответить с цитированием