Стив Возняк не верит в опасность искусственного интеллекта

22

steve wozniak

Тема искусственного интеллекта, вытеснившая интерес к технологиям трехмерного изображения и отъедающая значительную долю у виртуальной реальности, неожиданно для всех обрела небывалую популярность. О потенциале созданного в лабораторных условиях разума неустанно говорят такие деятели науки, как Стивен Хокинг, Элон Маск и даже Билл Гейтс. По их мнению, для человечества нет более совершенного и притом опасного будущего, чем будущее, в котором есть возможность создавать высокоинтеллектуальные машины. Находятся, впрочем, и те, кто совершенно не разделяет этой позиции. В их числе отметился сам Стив Возняк.

«Принципиальным аспектом закона Мура является факт того, что создание по-настоящему умных машин, способных думать как человек, невозможно, — рассуждает Воз. – Даже если машинам удастся мыслить наравне с людьми, едва ли они смогут понимать и просчитывать наши действия на несколько ходов вперед. Многое из того, что нам кажется само собой разумеющимся, не будет понято ими никогда. Конечно, когда мы говорим об искусственном интеллекте, мы представляем, что подобная система волшебным образом должна возникнуть сама. Но случись это, они стали бы нашими полноправными партнерами в каждой сфере без исключения, но не более того».

В прошлом Стив Возняк отметился как автор достаточно противоречивых высказываний. Около года назад Воз выступил с открытым письмом, в котором изложил последствия интеграции искусственного интеллекта в нашу жизнь. Основным тезисом послания стала возможность использования лабораторного разума для управления человечеством, подчинения целых народов и дестабилизация политической ситуации в государствах. То письмо вызвало большой резонанс в среде заинтересованных высокими технологиями людей, заставив поневоле вспомнить последствия блокбастера «Терминатор-2».

По материалам Business Insider

22 комментария

  1. 0

    Воз похож на Бигфута из фильма (: (отправлено из приложения AppleInsider.ru)

  2. 3

    Опасность есть, как есть маньяки в технологиях готовые создавать вирусы для машин чтоб уничтожить мир (отправлено из приложения AppleInsider.ru)

  3. 3

    Он никак не поймёт, что он не центр вселенной, и даже не центр эппл. Бедный Воз… (отправлено из приложения AppleInsider.ru)

  4. 0

    Билл Гейтс какую науку представляет? (отправлено из приложения AppleInsider.ru)

  5. 1

    Самый опасный интеллект, это сидящий за устройством программист с тремя классами и двумя коридорами. И с большими амбициями. (отправлено из приложения AppleInsider.ru)

  6. 0

    по сути и правда, опасности роботы не несут. опасность несут люди которые будут их создавать или которые смогут просто манипулировать этими «терминаторами» через вирусы и т. д. (отправлено из приложения AppleInsider.ru)

  7. 0

    Друзья, можно ли ещё откатиться с иос10? (отправлено из приложения AppleInsider.ru)

  8. -3

    ИИ не будет никогда, всё разговоры про ИИ чистый пиар (отправлено из приложения AppleInsider.ru)

  9. 0

    ЧушьKraus (отправлено из приложения AppleInsider.ru)

  10. 0

    От Эппл его точно не будет.

  11. 1

    Кого интересует мнение пенсионера)
    Можете минусить, но жизнь сама расставит все по своим местам.
    Возняк всего лишь человек и он смотрит на все с человеческой точки зрения.
    Если нас не смогут угробить машины сделанные нами же самими, то мы благополучно справимся с эти своими силами) (отправлено из приложения AppleInsider.ru)

  12. 0

    Старый дурак! (отправлено из приложения AppleInsider.ru)

  13. 0

    Все уже привыкли посылать этого старого неудачника куда подальше, в принципе как и сделал наш с Вами любимый Джобс) (отправлено из приложения AppleInsider.ru)

  14. 1

    Атеисты говорят верующим — «покажите Бога. Не вижу. Его нет». Потом идут на форумы и обсуждают ИИ :). Смешно, да. (отправлено из приложения AppleInsider.ru)

Авторизуйтесь Чтобы оставить комментарий