ViennaOS.net

Пользователь

Забыли пароль?

Реклама

Популярное на сайте

Последнее на форуме

» » Стивен Хокинг предупредил об опасности изобретения искусственного интеллекта
+5

Стивен Хокинг предупредил об опасности изобретения искусственного интеллекта

Автор: javalava » 3 мая 2014 » Новости и статьи
Стивен Хокинг предупредил об опасности изобретения искусственного интеллекта

Физик-теоретик и популяризатор науки Стивен Хокинг считает, что изобретение искусственного интеллекта может стать самым значительным открытием в истории человечества. Правда, при недостаточном внимании к феномену его появление грозит истреблением людского рода. Хокинг указывает на необходимость вовремя оценить риски, которые несет с собой рождение искусственного интеллекта, пишет The Independent.

Потенциальная выгода от появления AI огромна, однако и угроза от него исходит значительная. В частности, возникает вопрос, захотят ли военные передать управление вооружением искусственному интеллекту.

Кроме того, подобная система может следовать собственным целям и одинаково эффективно привести человечество к процветанию или полному упадку. Искусственный интеллект также способен резко нарастить свою мощь и, как предположил в 1965 году Ирвинг Гуд, самостоятельно и постоянно улучшать себя.

По мнению Хокинга, в краткосрочной перспективе проблемой является то, кто именно контролирует AI, в долгосрочной — можно ли его контролировать в принципе.
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

Комментарии

Посетитель
Ion-Software +3 оставил комментарий 4 мая 2014 05:21
0
Под понятием искусственного интеллекта сейчас понимают "самообучающаяся система", либо нейросеть. Они уже давно используются как в науке так и повсеместно в программировании - обучение распознавания изображений, обучение медицине не основании фактов, и т.д... Это все так называемый управляемый искусственный интеллект, способы развития которого описаны программистом, и в сторону они не могут уйти.

Стивен Хоккинг в данной статье пишет о системах, которые направлены на множественные цели, которые сейчас пишут в IBM, Google, Microsoft, etc... Их особенность в том, что они направлены на поиск различных фактов, объединяя которые, система сама определит путь, которым она будет это интерпретировать. К примеру нейросеть изучающая собак, будет искать подход идентифицировать кошек, используя правила собак.

Это все в итоге может привести к тому, что система решит, что для безопасности людей, люди должны быть ограничены во всем, либо даже уничтожены.
Посетитель
Devilsaw +118 оставил комментарий 4 мая 2014 09:00
-1
Будущее будет как в Mass Effect. С геями, шлюхами, жнецами и Шепардом который в конце объединит искусственный интеллект и органику, жертвуя собой конечно.
Посетитель
egor1303 -22 оставил комментарий 4 мая 2014 17:32
-1
сначало роботы будут заменять людей на работе,от чего начнётся безработица
Посетитель
RipHaw +100 оставил комментарий 4 мая 2014 18:55
-1
В одной из серий, не помню название сериала, человечество осознав серьёзную опасность, отказалось в будущем от использования сверх-критичных изобретений, таких как: сложная электроника, искусственный интеллект, вероятность исполнения теории о путешествии во времени, а так же был наложен строжайший запрет на изобретательство в этих сферах. Были уничтожены все данные и образ жизни был приведен к прогрессу человечества в начале 20-го века.
Но нашелся правдоруб революционер, путешествующий во времени из нашего настоящего, считающий, что нельзя человечество запирать в рамках слабого прогресса и приволок на заседание суда, где судили оступившуюся изобретательницу, мощьнейшую бомбу типа атомной и... разнес здание суда! Попутно сделав безжизненной большую часть планеты, а сам успев свалить во времена "дикого запада".
Вот и думайте как относится к прогрессу, а тем более искусственному интеллекту...
Посетитель
Stasyaner +30 оставил комментарий 4 мая 2014 21:23
0
На сколько я знаю, пока что не возможен "бесконтрольный" искусственный интеллект. Он в любом случае упрется в какой-то предел
Посетитель
Ion-Software +3 оставил комментарий 5 мая 2014 05:16
0
Цитата: Stasyaner
На сколько я знаю, пока что не возможен "бесконтрольный" искусственный интеллект. Он в любом случае упрется в какой-то предел


Ну все на самом деле относительно, человека тоже можно управляемым называть, так как управление им производилось на начальном этапе жизненного пути, но он развивался дальше. То же самое с нейросетями, в начале ее необходимо вручную обучать. (Мне в дипломе пришлось даже описывать процесс обучения нейросети, и тестовые данные).
Информация
Посетители, находящиеся в группе Гость, не могут оставлять комментарии к данной публикации.