FestivalNauki.ru
En Ru
cентябрь-ноябрь 2020
176 городов
September – November 2020
312 cities
09-11 октября 2020
МГУ | Экспоцентр | 90+ площадок
14–16 октября 2016
Центральная региональная площадка
28–30 октября 2016
ИРНИТУ, Сибэскпоцентр
14–15 октября 2016
Центральная региональная площадка
23 сентября - 8 октября 2017
«ДонЭкспоцентр», ДГТУ
ноябрь-декабрь 2018
МВДЦ «Сибирь»,
Вузы и научные площадки города
6-8 октября 2017
Самарский университет
27-29 октября
Кампус ДВФУ, ВГУЭС
30 сентября - 1 октября
Ледовый каток «Родные города»
21-22 сентября 2018 года
ВКК "Белэкспоцентр"
9-10 ноября 2018 года
Мурманский областной Дворец Культуры
21-22 сентября 2019 года
22-23 октября 2019 года
29-30 ноября 2019 года
7-8 сентября 2019 года
27-29 сентября 2019 года
4-5 октября 2019 года
10-12 октября 2019 года

Величайшая ошибка человечества

Британский физик Стивен Хокинг показал, что недооценка угрозы со стороны искусственного интеллекта может стать самой большой ошибкой в истории человечества. Cоавторами данной работы являются профессор компьютерных наук из Калифорнийского университета Стюартом Расселлом и профессоры физики Макс Тегмарк и Фрэнк Вильчек из Массачусетского технологического института. В статье упоминаются некоторые достижения в области искусственного интеллекта: самоуправляемые автомобили, голосовой помощник Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy.

 Вот что сказал Хокинг газете Independent: «Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков».

Ученые говорят, что в будущем может случиться так, что машины с нечеловеческим интеллектом будут самосовершенствоваться и ни что не сможет остановить данный процесс. А это, в свою очередь, запустит процесс так называемой технологической сингулярности, под которой подразумевается чрезвычайно быстрое технологическое развитие. В статье отмечается, что такая технология превзойдет человека и начнет управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, недоступного нашему пониманию. Если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще.

Сложно сказать, какие последствия для людей может повлечь создание искусственного интеллекта. Хокинг считает, что этим вопросам посвящено мало серьезных исследований за пределами таких некоммерческих организаций, как Кембриджский центр по изучению экзистенциальных рисков, Институт будущего человечества, а также научно-исследовательские институты машинного интеллекта и жизни будущего. По его словам, каждый из нас должен спросить себя, что мы можем сделать сейчас, чтобы избежать худшего сценария развития будущего.

Источник:  http://Newsland.ru

Прикрепленные материалы: 
ФайлФайлРазмер
ca46df38-3e6e-438e-9b5c-93820c4bcc05.jpgJPG, 720x540px, 197.08 КБ

Добавьте свой комментарий

Plain text

  • Переносы строк и абзацы формируются автоматически
  • Разрешённые HTML-теги: <p> <br>
LiveJournal
Регистрация

Другие статьи в этой рубрике

Графен в медицине

Ксения Рыкова для ПостНауки

Астрономы поймали длинный гамма-всплеск от взрыва далекой сверхновой

Астрономы смогли достоверно обнаружить новую пару сверхновая—гамма-всплеск в далекой галактике. Подобные открытия позволяют понять связь между этими катаклизмами и более детально разобраться в механизмах генерации гамма-всплесков.

Взрыв сверхновой разложили на этапы

Сверхновые звёзды — основной источник элементов жизни во Вселенной. Существование человечества и всего живого стало возможно благодаря тем химическим элементам, которые были получены в результате взрыва сверхновых звёзд.

Новости в фейсбук