Показать сообщение отдельно
Старый 29.04.2015, 21:23   #205
лида
Постоянный участник
 
Аватар для лида
 
Регистрация: 28.10.2012
Адрес: москва
Сообщений: 7,001
лида имеет неоспоримую репутациюлида имеет неоспоримую репутациюлида имеет неоспоримую репутациюлида имеет неоспоримую репутациюлида имеет неоспоримую репутациюлида имеет неоспоримую репутациюлида имеет неоспоримую репутациюлида имеет неоспоримую репутациюлида имеет неоспоримую репутациюлида имеет неоспоримую репутациюлида имеет неоспоримую репутацию
По умолчанию

Стивен Хокинг: человечество обречено, если не покинет Землю
Цитата:


«Будет довольно сложно избежать катастрофы в ближайшие сто лет, не говоря уже о следующей тысяче или миллионе лет, — сказал Хокинг. — Наш единственный шанс долговременного выживания — не остаться на планете Земля, а распространиться в космосе».
Людей, застрявших на Земле, ждет риск двух типов катастроф, считает Хокинг. Первый тип мы можем создать самостоятельно, к примеру, вызывая кардинальное изменение климата или создав ядерное или биологическое оружие. Может стереть нас с лица Земли и ряд космических явлений. Астероид, столкнувшийся с Землей, убьет большую часть населения и оставит остальную часть планеты непригодной для жизни. Вспышка гамма-лучей сверхновой недалеко в Млечном Пути тоже может оказаться разрушительной для жизни на Земле.
Жизнь на Земле также может быть под угрозой внеземных цивилизаций, о чем любит говорить Хокинг. Опасные чужаки могут завладеть планетой и ее ресурсами для собственного использования. Для выживания нашего вида было бы безопаснее иметь запасной план в виде других миров.
«Больше всего я бы хотел поправить в человеке его агрессию. Она давала преимущество при выживании в дни пещерных людей, чтобы получить больше еды, территории или партнера, с которым можно продолжить род, но сегодня она угрожает уничтожить нас всех».
Элон Маск предупреждал, что шанс на то, что случится нечто опасное в результате появления машин с искусственным интеллектом, может выстрелить уже через пять лет. Развитие автономных думающих машин сродни «призыву демона». Маск описал искусственный интеллект как нашу «крупнейшую угрозу для выживания». : «Я думаю, нам стоит быть очень осторожными с искусственным интеллектом".
Хокинг: «Качество, которое я хотел бы улучшить — это эмпатия, сочувствие. Она удерживает нас в состоянии мира и любви».Космическая гонка для людей будет «страхованием жизни» и должна продолжаться.
«Я считаю, что долгосрочным будущим человеческой расы должен быть космос и что он представляет собой важную страховку жизни для нашего дальнейшего выживания"
В декабре 2014 года Хокинг выступил с другим предупреждением, что искусственный интеллект может означать конец человеческой расы.
Без каких-либо гарантий развитие умных машин может означать темное будущее для человечества
http://naukanewsnet.ru/news/772
лида вне форума   Ответить с цитированием