Стив Возняк не верит в опасность искусственного интеллекта

Тема искусственного интеллекта, вытеснившая интерес к технологиям трехмерного изображения и отъедающая значительную долю у виртуальной реальности, неожиданно для всех обрела небывалую популярность. О потенциале созданного в лабораторных условиях разума неустанно говорят такие деятели науки, как Стивен Хокинг, Элон Маск и даже Билл Гейтс. По их мнению, для человечества нет более совершенного и притом опасного будущего, чем будущее, в котором есть возможность создавать высокоинтеллектуальные машины. Находятся, впрочем, и те, кто совершенно не разделяет этой позиции. В их числе отметился сам Стив Возняк.

Стив Возняк не верит в опасность искусственного интеллекта. Фото.

«Принципиальным аспектом закона Мура является факт того, что создание по-настоящему умных машин, способных думать как человек, невозможно, — рассуждает Воз. – Даже если машинам удастся мыслить наравне с людьми, едва ли они смогут понимать и просчитывать наши действия на несколько ходов вперед. Многое из того, что нам кажется само собой разумеющимся, не будет понято ими никогда. Конечно, когда мы говорим об искусственном интеллекте, мы представляем, что подобная система волшебным образом должна возникнуть сама. Но случись это, они стали бы нашими полноправными партнерами в каждой сфере без исключения, но не более того».

В прошлом Стив Возняк отметился как автор достаточно противоречивых высказываний. Около года назад Воз выступил с открытым письмом, в котором изложил последствия интеграции искусственного интеллекта в нашу жизнь. Основным тезисом послания стала возможность использования лабораторного разума для управления человечеством, подчинения целых народов и дестабилизация политической ситуации в государствах. То письмо вызвало большой резонанс в среде заинтересованных высокими технологиями людей, заставив поневоле вспомнить последствия блокбастера «Терминатор-2».

По материалам Business Insider

Стив ВознякТехнологии AppleЧто будет с Apple