Илон Маск: «Искусственный интеллект опаснее ядерных боеголовок»

Илон Маск говорит, что ИИ опаснее ядерных боеголовок.

Главная проблема с так называемыми «экспертами» по AI (искусственному интеллекту) заключается в том, что они думают, что знают больше, чем они знают на самом деле. Им кажется, что они умнее, чем на самом деле.

В целом, конечно, мы все умнее, чем нам кажется, но в то же время мы намного более тупы, чем нам кажется. Эта проблема поражает массу людей, которые позиционируют себя через свой интеллект — они не могут принять то, что машина может быть на порядок умнее их. Поэтому они отвергают саму лишь мысль о возможном превосходстве AI над человеческим разумом, выдавая желаемое за действительное.

Я очень плотно занимаюсь AI, нахожусь на переднем рубеже — я вижу на что способен искусственный интеллект и это чертовски пугает меня. Он способен на большее, чем кто-либо может себе представить, и скорость его обучения идет по экспоненте. Возможности ИИ можно увидеть на примере AlphaGo, который за 6-9 месяцев продвинулся от неспособности победить более-менее сильного игрока к возможности выиграть у чемпиона Европы. Затем он победил у бывшего чемпиона мира, который был им много лет, а также у нынешнего чемпиона и всех остальных, играя партии параллельно. Затем появился AlphaZero, который победил AlphaGo со счетом 100-0. При этом AlphaZero научился играть сам — он способен играть в любую игру с правилами. Он буквально читает правила, учится, и играет в любую игру лучше человека.

Так что пророчества «экспертов» по AI, которые говорят, что он недостаточно быстро учится — банально слабы. По крайней мере их предсказания в том что касается AlphaGo не сбываются. Мы это увидим также и на примере автопилота. Я думаю, что уже к концу следующего года автопилот освоит все виды езды и будет на 100-200% безопаснее человека. Через каких-то 18 месяцев. Довольно примитивная Тесла 1 показала уменьшение аварий на 45%. Тесла 2 будет минимум в 2-3 раза лучше. Скорость развития AI невероятная, поэтому мы должны убедиться в том, что эта скорость совместима с человечеством. Искусственный интеллект представляет очень серьезную угрозу обществу и человечеству. Это самый серьезный экзистенциальный кризис, с которым нам придется столкнуться в ближайшее время.

Если развитие AI неизбежно, то как защититься?
Я обычно против регулирующих органов, но в данном случае мы имеем серьезную угрозу для человечества, поэтому нужен публичный орган, который будет следить за тем, что все участники разрабатывают искусственный интеллект безопасно. Я думаю, что угроза AI значительно выше угрозы даже ядерных боеголовок, которые бы мы никому не позволили разрабатывать просто так, по желанию. Запомните мои слова, AI намного опаснее ядерного оружия. Так почему у нас нет никаких контролирующих органов?

При этом стоит различать узконаправленный AI (например, боты, которые работают со СМИ или отвечают в чатике — в худшем случае они лишат людей работы) и супер AI, который угрожает существованию всего человеческого вида. Если человечество сообща решит, что мы таки должны развивать супер искусственный интеллект, нам нужно подойти к этому очень взвешенно и осторожно. Это самое важное, что мы можем сделать на сегодняшний день.