В интервью авторитетному американскому подкасту Hard Fork всемирно известный израильский историк и мыслитель Юваль Харари рисует сложную и пугающую картину будущего человечества в эпоху искусственного интеллекта. Харари описывает "сценарий бюрократического конца света", когда агенты искусственного интеллекта (автономные системы, выполняющие определенные задачи без вмешательства человека) будут принимать решения вместо людей. Ученый предостерегает: необходимо обсуждать безопасность подобных технологий уже сейчас, а не через пять или десять лет, когда будет слишком поздно.
"Если мы совершим роковую ошибку в том, как взаимодействовать с ИИ, он не только возьмет под контроль все человечество, но и подчинит человеческое сознание, что превратит наше существование в царство тотальной тьмы", - говорит Харари в интервью Hard Fork, подчеркивая, что его слова не некое гневное пророчество, а вполне реалистичный вариант наихудшего сценария, который нам следует осознавать.
Харари, чья четвертая книга "Нексус: краткая история информационных сетей от каменного века до искусственного интеллекта" вышла на днях во многих странах мира (в Израиле она напечатана издательством "Кинерет Змора Двир"), рассказывает, как, на его взгляд, будет выглядеть "бюрократический конец света".
Историк подчеркивает, что это не похоже на голливудский сюжет, в котором роботы восстают против людей. Все будет выглядеть достаточно буднично. Мир стремительно заполнится агентами искусственного интеллекта – в армии, полиции, банках, университетах и даже в правительстве. Агентам ИИ будет делегировано решение множества задач, которые сейчас принимаются исключительно людьми.
►Уроки истории
Харари упоминает влияние изобретения книгопечатания в Европе в XV веке в качестве исторического примера мрачной силы новой технологии, которая не обязательно ведет к прогрессу. "С момента изобретения печати и до пика научной революции в XVII веке прошло почти 200 лет, - отмечает он. - За эти два столетия Европа пережила множество самых кровопролитных религиозных войн в своей истории и самую масштабную охоту на ведьм, какая когда-либо случалась на континенте".
Затем историк привел пример промышленной революции XIX века. "Если бы я давал оценку человечеству за то, как оно распорядилось открытиями промышленой революции, я поставил бы ему двойку, - сказал он. - Если в XXI веке, когда уже ясно, что наша жизнь будет строиться вокруг искусственного интеллекта, мы снова проявим небрежность и неумение в обращении с новыми технологиями, это будет очень плохой новостью для миллиардов людей на планете".
►Опасность для демократии и влияние на военные конфликты
Одна из основных опасностей, по мнению Харари, связана с разрушительным влиянием искусственного интеллекта на демократию.
"Общественная дискуссия, без которой немыслима либеральная демократия, рассыпается на части. Не только в США, но и во всем мире, - констатирует ученый. - Мы обладаем самыми сложными информационными технологиями в истории, но теряем способность вести разумную дискуссию друг с другом. Демократия находится на грани краха".
Огромное влияние, по мнению Харари, ИИ будет иметь и на военные конфликты. Он приводит в пример войну в Газе. "Если вы живете в доме, о бомбардировке которого принимает решение искусственный интеллект, это не что иное, как апокалипсис", - утверждает он.
►Между опасениями и надеждой
Несмотря на все свои предостережения, Харари не отвергает полностью использование искусственного интеллекта, признавая, что сам применяет подобные инструменты для переводов, выражая восхищение лингвистическими возможностями ИИ. "Как человек, чья профессия непосредственно связана с языком и словами, я потрясен тем, насколько быстро и качественно развилась эта технология", - говорит он.
Вместе с тем Харари рассказал о своих непростых отношениях с новейшими технологиями в повседневной жизни. По его словам, он был вынужден приобрести смартфон только для того, чтобы получить доступ к разным сервисам, но всячески старается ограничить использование этого прибора. "Я никогда не кладу смартфон возле кровати, - признается он. - И утром не спешу проверять сообщения".
На вопрос, насколько вероятен сценарий, при котором человечество перестанет существовать из-за искусственного интеллекта, Харари сказал, что вероятность полного исчезновения крайне мала – примерно от одного до 10%. Но риск существует, и его необходимо учитывать.
В конце интервью Харари призвал к немедленному и углубленному обсуждению последствий стремительного развития ИИ. "Мы должны вести эту дискуссию сейчас, а не через несколько лет, когда станет поздно", - сказал он. И подчеркнул, что без совместных усилий не достичь процветающего будущего для человечества в эпоху искуственного интеллекта.
Перевод: Гай Франкович