Russian
| English
"Куда идет мир? Каково будущее науки? Как "объять необъятное", получая образование - высшее, среднее, начальное? Как преодолеть "пропасть двух культур" - естественнонаучной и гуманитарной? Как создать и вырастить научную школу? Какова структура нашего познания? Как управлять риском? Можно ли с единой точки зрения взглянуть на проблемы математики и экономики, физики и психологии, компьютерных наук и географии, техники и философии?"

«Взгляд за горизонт» 
Олег Фиговский (Израиль)

Олег Львович Фиговский — советский, российский изобретатель, доктор технических наук, специалист в области создания новых композиционных материалов. Академик EAS, РИА и РААСН, почётный доктор КНИТУ, почётный профессор КГТУ, ВГАСУ и WSG, зав. кафедрой ЮНЕСКО «Green Chemistry». Глава Департамента, Почетный Президент Совета Старейшин Альянса Народов Мира. Автор более 500 изобретений.

Что же обещает нам ИИ в ближайшем и отдаленном будущем? Вообще-то сам ИИ ничего не обещает, за него это делают футурологи, разработчики и журналисты.А что сулит нам союз роботов и людей? С точки зрения самих людей. Роботов пока не спрашивают.

Мы так привыкли к умной технике, что уже и не замечаем её. А может ли робот загипнотизировать человека? Откуда является озарение? Возможно ли сделать машину с нечеловеческой психикой? И чего нам ожидать от будущего с позиции сожития людей с сотворенными ими… да уже и не просто бездушными механизмами, а почти себе подобными субъектами нашего мира?

Ответы на эти вопросы можно найти в рабщтах Олега Фиговского,  Олега Пенского и других исследователей.

 С нано в голове

 Человек всегда мечтал заглянуть в будущее. Со времен гадания по звёздам он в этом весьма продвинулся. С конца XIX века появились научные прогнозы. А в середине XX – термин футурология. Делать предсказания помогают хитроумные научные методы, высокая математика и умная техника. Всё это роднит футурологию с историей, прогнозированием и научной фантастикой.

Среди ученых на слуху имя Рэймонда Курцвейла. Американский изобретатель и футуролог в своих прогнозах опирается на математическую экстраполяцию. Если совсем просто, это когда выводы по итогам прошлого и настоящего распространяются на грядущее. Причем, чем дальше стремится проникнуть взгляд, тем быстрее растет погрешность.

Кое-что и сбывается. Например, Курцвейл предсказал, что к 2010-му маленькие компы станут активными участниками наших будней. Разве не так? А что дальше? Если верить Курцвейлу, к 2030 году наномашины можно будет вживлять в мозг с эффектом «полного погружения» в виртуальное пространство. А ещё через 15 лет планета Земля станет одним гигантском компом, и «превращение» перекинется на Вселенную.

Плохо это или хорошо? Поживем – увидим. Чтобы уменьшить погрешность прогнозов на больших масштабах времени, ученые придумывают всяческие уловки. А к юной и смелой футурологии охотно подключаются другие уважаемые строгие почтенные науки. Потому что пока будущее не определено, его можно изменить, как учила нас Сара из фильма «Терминатор» Джеймса Кэмерона.

 Миром правит косинус

Будущее волновало философов с древних времен. Сегодня есть много попыток описания мира. И среди них теория диалектического развития. А недавно в Пермском государственном национальном исследовательском университете сделали «математическое моделирование гегелевских положений диалектики виртуального мира роботов». Другое исследование позволяет предсказать «время перехода любой системы в новое качество».

Но вернемся к философии. Она учит, что наш мир колеблется между спадами и прогрессами. И это похоже на раскрутку спирали. А математика уточняет, что развитие идет не по спирали, а по закону косинуса. И это подсказывает нам, что после современного бурного подъема технологий робототехники и искусственного интеллекта надо ждать спада интереса к роботам.

 Где мы, кто мы?

 Что дальше? Пока общая стратегическая цель развития мирового социума с точки зрения политики просматривается с трудом. А ведь наука только анализирует статистику достижений общества. Прежде чем гнаться за журавлем в небе, в Пермском университете занялись синицей в руках. И придумали универсальную методику численной оценки величины достижения воспитательной цели.

Говоря образно: скажи мне, кто и как тебя воспитывал, и я скажу, где ты. Можно ли новый метод адаптировать к описанию развития человеческого общества? Во всяком случае никто не мешает это сделать. Потому что как только мы сможем сформулировать общую цель, задача определения нашего места на пути к ней мгновенно обретет новое измерение.

 Светит, но не греет

 А на сегодня научно-техническая революция подарила нам роботов. Они массово шагнули на производство, в больницы, школы, детские сады, карманы мужских пиджаков и женских сумочек. Сказки про ковры-самолеты, печки-самоходы и волшебные говорящие зеркала стали былью. Что будет с нашими детьми? И опасна ли для детской психики тотальная роботизация образования?

Пока что педагогические, психологические и медицинские исследования такую опасность, к сожалению, подтверждают. Это связано в том числе с тем, что, когда общаются люди – учитель и ученик – неизбежны межличностные отношения. То есть при коммуникации один человек эмоционально воздействует на другого. Каждый из нас испытывает это на себе постоянно без всякой высшей математики.

А как общаются роботы? Чтобы это «посчитать», придуманы коэффициенты эмоционального влияния (коэффициенты внушаемости) одного робота на другого. И есть основания заявлять, что математические модели этих коэффициентов без больших трудностей можно перенести на контакты робота и человека, или межличностные взаимоотношения людей.

На этой дорожной карте есть белые пятна. Потому что сама психология пока только учится подсчитывать эмоциональное влияние одного человека на другого.  Однако логика подсказывает, что человек, вероятно, более подвержен эмоциям, чем бездушная машина. То есть робот может влиять на человека, как солнце летом: и светит, и греет. А человек на робота – иначе.

 Кто кем манипулирует?

 Из этого можно вывести определение робота-манипулятора. Такая машина уже способна не только учить и увлекать человека, но и подчинять своей логике. Гипноз бывает разный. Например, мягкий – воспитание через убеждение. Или жесткий – подавление воли гипнотизируемого.

Для психики школьника наиболее опасен жесткий гипноз робота. Поэтому, как показывает математическая теория гипноза, при воспитании и обучении детей с помощью IT-технологий это необходимо исключать. То есть степень влияния робота-учителя должна быть строго соизмерима с коэффициентами влияния учащегося.

Работа «Математические модели и алгоритмы интуиции, озарений и гипноза роботов» Олега Фиговского и Олега Пенского предлагает использовать коэффициенты влияния при создании роботов, лично преданных хозяину. Для этого достаточно разработчику программного обеспечения роботов задать высокий коэффициент влияния человека на машины, которыми он владеет.

 А озарение откуда?

 Развитие робототехники тянет за собой других: к техническим и психологическим задачам добавляются мировоззренческие. Среди, возможно, самых интересных и спорных такая: может ли у робота быть озарение?  В качестве ответа процитируем научное обоснование: «Озарение робота – это решение задачи на основе частичной потери логики в его мышлении».

Скажем больше, алгоритм таких озарений уже описан. Его особенность в том, что озарение робота при решении некой задачи привносится извне, например, от человека. Отлично. А у человека-то оно откуда?

Если допустить, что наши гипотезы верны, значит в мире существует некий разум, человеку неподвластный? Так как же изменится роль человека-ученого в связи с развитием робототехники? Смеем допустить, что ученый станет, прежде всего, постановщиком новых задач. А люди с хорошей интуицией, те, у которых бывают озарения, будут особо ценными.

 Учёных станет меньше

 Сейчас есть много различных компьютерных математических пакетов, основная функция которых в том, что по одной команде пользователя компьютер решает, например, заданные уравнения с помощью заданных же пользователем математических методов, которые в пакете «прошиты».

И программист для таких дел не нужен. Зато понадобится язык программирования для формализованной постановки научных задач в любой отрасли человеческих знаний. Такой инструмент позволит человеку не знать ничего о методиках конкретной науки. За него все сделает искусственный интеллект: исследует, выберет способ решения задачи и найдет ответ.

А человеку останется пожинать плоды: проанализировать результаты, которые получил интеллект искусственный. Из чего следует, что, вероятно, учёных в будущем станет меньше. Что ещё?

 Цифровые двойники и неврастения

 Уже созданы основы общей математической теории эмоциональных роботов, которые позволяют запрограммировать, пускай, пока примитивного, но, все же, психологического аналога реального человека. Его назвали цифровым двойником.

Это программирование основано на общих математических моделях эмоциональных роботов. Входными параметрами являются измеренные у человека эмоции, воспитание, количество накопленной логической информации, коэффициенты памяти и другие психологические характеристики. Рассмотрим конкретные примеры.

В мировой робототехнике большое внимание уделяется применению роботов в медицине. Однако медицинских роботов, как правило, используют при лечении телесных, а не душевных заболеваний. В 2018 году пермские ученые впервые описали математические модели диагностики таких психических заболеваний, как неврастения и психопатия цифровых двойников.

Программное обеспечение, основанное на математических моделях этих заболеваний для цифровых двойников, использовалось при оценке тяжести неврастении и психопатии реальных пациентов в одной из неврологических клиник Пермского края РФ. Проверка математики диагнозами пациентов, поставленных врачом, показала точность определения степени тяжести заболеваний 85%.

Итак, искусственный интеллект может болеть. И его можно и нужно лечить. На основе предложенной математической модели оптимального психотропного лекарства показано, что неврастения и психопатия цифровых двойников полностью излечимы. А что с реальными людьми? Как говорится, исследования продолжаются.

 Зачем японцам гуманоиды?

 Уже несколько лет в мире, особенно в восточных экономически развитых государствах, таких как Япония, Южная Корея и Китай, активно занимаются созданием гуманоидных роботов, являющихся, по крайне мере, точной внешней копией человека, а с психологической точки зрения – его цифровым двойником.

На вопрос о том: «Зачем нужны эти роботы-копии человека, являющиеся, по сути, дорогими игрушками?» — японцы отвечают: «Мы делаем то, что делает Учитель». При этом под Учителем понимаются и природа, и высшие сверхъестественные силы.

В США и Сингапуре идут дальше. Создают копии живых существ и внедряют в бизнес промежуточные результаты разработок по робототехнике.

А что в России? Не будем отвечать за всю страну, расскажем о конкретной Перми.

 Умные игрушки-воспитатели

  Несколько лет назад с одной из сингапурских инновационных компаний представители Пермского университета обсуждали проект математического моделирования психологии примитивного цифрового двойника. Его главная задача состояла в воспитании капризных детей с помощью роботов-игрушек.

Идея следующая. В игрушку (мячик, детскую машинку и т. д.) встраиваются микрофон, небольшой электродвигатель и компьютерный чип. Когда малыш начинает громко кричать, программа оценивает амплитуду звуковой волны его крика. При этом родители ребенка могут задавать максимальное значение высоты звука.

Крик «включает» электродвигатель, и игрушка «убегает» от юного скандалиста в более тихое место. Программа в чипе высчитывает время, необходимое, чтобы малыш успокоился. Потом игрушка возвращается. Воспитательная компонента понятна: капризы – игре помеха.

Небольшая игрушка решала маленькую задачу. А сингапурцы сразу ухватились. Мгновенно просчитали экономический эффект. Продажная цена продукта составила 20 долларов. А её производителем стала китайская фирма. Позже такая умная игрушка была изготовлена в более простом варианте учениками одной из пермских школ.

–  Откуда новые идеи черпаете? – спросили сингапурские ученые у пермяков.

– Придумываем сами, – был ответ.

– А мы — из научной фантастики – признались коллеги из Сингапура.

Нечеловеческая психология

При создании нового мы часто отталкиваемся от подобного. Но даже сейчас, благодаря уже разработанной математической теории роботов с неабсолютной памятью, стало возможным создавать роботов с «психологией», отличной человеческой, от той, что сделал, например, «японский Учитель».

Где границы возможного?

Как математическое описание поведения человека перенести на поведение робота?

Как придумать нечеловеческую психологию для решения человеческих задач?

Например, психология учит, что у человека есть базовые эмоции (страх, радость, удивление, гнев, презрение и т.д.). Считают их по-разному. Называя базовыми восемь, шестнадцать или двести пятьдесят шесть эмоций.

Компьютер помнит всё

Чтобы это описать создана математическая теория эмоциональных роботов. Она предполагает произвольное количество базовых эмоций робота, не привязанное к конкретному числу. То есть при программировании можно ввести и две, и десять тысяч базовых машинных эмоций. В конечном счете, исходя из нынешних знаний, это всегда будет психология, отличная от человеческой.

Ещё пример. Человек по природе обладает коэффициентом памяти, меньшим единицы, и характеризующим ту часть полученной информации, которую он запомнил. При создании роботов можно задать коэффициент машинной памяти, равный единице – и в этом тоже будет разница между психологией робота и человека.

Надо думать, с развитием робототехники изучение взаимоотношений роботов с нечеловеческой психологией с живым человеком станет особенно актуальным.

Эмоции – величина векторная

Создатели искусственного интеллекта задают психологам много вопросов.

Например, математики, разрабатывая модель комплексных эмоций робота, применяют векторный анализ. Допустим, что на внешний стимул у робота в качестве ответной реакции возникают одновременно все базовые эмоции. А потом его чип, исходя из возникшей комплексной эмоции, вычисляет базовую, которая и определяет психологическую реакцию робота на стимул.

А психологи считают, что у человека в ответ на стимул возникает только одна конкретная базовая эмоция, а не одновременно вся их совокупность. В таких условиях принцип одновременного появления комплексных эмоций в ответ на стимул ставит новую исследовательскую задачу для описания механизма эмоций человека.

Или другой пример. Математиками разработаны модели темперамента робота, численное значение которого определяется на основе сравнения индивидуальных темпераментов группы роботов.

Психологические методы определения темперамента человека основаны на генетических характеристиках этого человека. А это значит, что алгоритмы измерения темперамента роботов относительно их группы могут быть положены в основу новой методики определения темперамента отдельного человека относительно группы людей. Всё это пригодится в будущем.

Миром правят гуманитарии

В обществе людей исторически правят гуманитарии. Технические науки лишь исполняют их социальный заказ. Однако в XXI веке влияние последних на первых становится всё более значительным. Мир развивается по колебательному принципу. Роль робототехники и искусственного интеллекта для человечества уже весома и с большой вероятностью будет расти.

По мнению авторов, особенно актуальными становятся исследования в области «мирного» и взаимовыгодного психологического сосуществования человека и роботов. Надо ожидать, что к этому очень активно подключится как психология, так и точные науки.

Психология человека и робота

Существует множество суждений, касающихся опасности или безопасности широкого внедрения роботов в жизнь общества. Так, например, футуролог Рэй Курцвейл говорит: «Слияние человека с искусственным интеллектом (ИИ) принесёт людям пользу и улучшит качество их жизни».

Но в массовом сознании людей существует и другое мнение: «За последнее время ИИ развивается так быстро, что теперь не проходит и месяца без сообщений о прорывах в сфере ИИ. В самых разных областях человеческой деятельности компьютер все чаще начинает превосходить человека. И все чаще говорится о том, как ИИ повлияет на занятость людей. Не только дремучие обыватели, но и многомудрые эксперты опасаются, что по мере развития искусственного интеллекта людям будет оставаться все меньше работы, а значит, будет расти количество безработных, которые экономически не смогут конкурировать с машинами».

Как правило, при высказывании прогнозов о вреде или пользе ИИ эксперты рассматривают лишь экономические угрозы человечеству, не затрагивая психологических аспектов.

Но на наш взгляд, все разговоры о роботах без обоснований с помощью математических формул и численных расчетов носят чисто гипотетический характер и являются, скорее высказываниями личных убеждений, а не окончательной истины. Для того, чтобы дать обоснованные утверждения о пользе или вреде роботов, нужно, прежде всего, математически описать психологию роботов и психологию человека.

Создание персональных роботов идет по пути моделирования различных психических процессов человека, основными из которых на данный момент являются память и эмоции. В настоящее время существует множество различных теорий, посвященных построению таких моделей. Основным недостатком всех существующих теорий является то, что их авторы решают узкоспециализированные задачи и не описывают «общую психологию» роботов и человека в полном комплексе их деятельности.

Впервые попытку построить общую математическую теорию эмоций человека осуществил академик АН СССР В.П. Симонов еще в 70-х годах прошлого века. Им были предложены системы обыкновенных дифференциальных уравнений, на основании которых в зависимости от конкретного набора стимулов – входных параметров моделей – предлагалось строить графики эмоционального возбуждения человека в зависимости от времени. Однако уравнения В.П.Симонова носили, скорее, интуитивный характер и  практикой не подтверждались.

В 1980-х годах исследованиями моделирования эмоций человека активно занялся профессор Калифорнийского университета (США) В.Лефевр. Им была создана, так называемая, математическая теория рефлексий, но она рассматривала узкий круг задач общей психологии человека, связанных, прежде всего, с описанием возможности совершения террористических актов человеком или группой лиц.

В Перми, начиная с 2006 года, под руководством профессора О.Г. Пенского активно проводятся исследования, посвященные математическому моделированию поведения эмоциональных роботов и принятия ими решений в зависимости от эмоционально воспитания и логического опыта. Математические модели создаются согласно хорошо развитой существующей гуманитарной общей теории психологии человека, а поэтому построение моделей осуществляется математиками при строгом контроле со стороны ученых-психологов. Это позволяет описывать формулами психологию роботов, аналогичную именно психологии человека, а не вымышленных абстрактных существ. Но в качестве входных «психологических» параметров моделей, позволяющих «вычислять» поведение роботов, разработчик роботов может задавать любые численные значения. Для описания психологического поведения конкретного человека входными параметрами математических моделей роботов являются численные характеристики, присущие этому человеку.

Прежде всего, мы рассмотрим гуманоидных, т.е. человекоподобных, роботов и постараемся оценить степень влияния искусственного интеллекта этих роботов на психологию человека и социум не на основе гуманитарных умозаключений, а согласно выводам, полученным из строгой математической теории, описывающей, в числе прочего, взаимоотношения робота и человека. Приведем лишь некоторые результаты математической теории «общей психологии» человекоподобных роботов, не вдаваясь в детали и нюансы этой теории.

Для математического описания формулами психологии человека пермские ученые используют введенные ими математические определения гуманитарных понятий эмоции, воспитания, логического опыта и, так называемых, коэффициентов эмоциональной и логической кратковременной и долговременной памяти, которые характеризуют ту часть воспитаний и информации, которая не забывается роботом или человеком с течением различных промежутков времени.

Пермскими учеными введено понятие «цифровой двойник человека». Цифровым двойником человека назван эмоциональный робот, где входными параметрами математических моделей его «психологического поведения» являются психологические параметры, измеренные у конкретного человека. Отметим то, что цифровой двойник – это лишь некоторый психологический аналог, а не полная копия человека, так как создать психологическую точную копию человека невозможно в силу многочисленных нюансов личности каждого существа, не поддающихся при математическом описании общим закономерностям.

Отметим также, что в настоящее время в РФ разработано и распространяется в свободной продаже программное компьютерное обеспечение, позволяющее без больших трудностей измерять эмоции человека и его коэффициенты кратковременной памяти. Именно эти параметры необходимы для вычислений, позволяющих прогнозировать психологическое поведение цифровых двойников человека. Верификация натурными экспериментами математических формул, созданных в Перми и описывающих эмоциональное воспитание цифровых двойников, позволила сделать вывод, что средняя относительная погрешность отклонения результатов вычислений воспитаний от реальных воспитаний человека не превышает 14 %, т.е. математическая модель воспитания цифровых двойников может быть использована в первом приближении и при описании психологии человека.

На основе математического моделирования психологических процессов цифровых двойников доказана теорема, говорящая о том, что численное значение эмоционального воспитания двойника ограничено конкретным числом, присущим каждому цифровому двойнику, если его коэффициент эмоциональной памяти меньше константы, которая, в свою очередь, меньше единицы. Таким образом, постоянно воспитывать цифрового двойника человека не имеет смысла, так как с увеличением воспитательных стимулов ответная итоговая эмоциональная реакция двойника на воспитание уменьшается и стремится к нулю.

Анализ полученных математических моделей показывает, что для устранения ограничения воспитания необходимо, чтобы цифровой двойник умел обобщать получаемую им информацию и воспитание. Для этого необходимо, чтобы двойник обладал не только кратковременной, но и долговременной памятью.

В качестве примера практического применения этого утверждения можно предложить сценаристам и режиссерам различных длительных медиа проектов, состоящих из отдельных передач, создавать свои программы с учетом возможности обобщения аудиторией той информации и воспитания, которые были получены в результате передач, предшествующих каждой последней передаче медиа проекта.

На основе предложенных в Перми формул долговременной памяти цифровых двойников создана компьютерная программа, позволяющая вычислять коэффициенты кратковременной памяти человека.

Также доказана теорема о том, что при непрерывном воспитании двойника, для которого коэффициенты кратковременной памяти стремятся к единице с увеличением количества стимулов (что означает превращение двойника в робота с абсолютной памятью, т.е. с течением времени забывающего все меньше и меньше информации), воспитание двойника стремится к бесконечности или становится неограниченным. Эта теорема позволяет дать следующее определение: фанатиком называется цифровой двойник человека, который с течением времени стремится к двойнику с абсолютной кратковременной памятью.

Отметим то, что определить, является ли двойник фанатиком («фанатом» для шоу-бизнеса) или таковым не является, можно использовать разработанное в РФ программное обеспечение. Также следует отметить то, что для воспитания фанатиков вовсе не обязательно стремиться к тому, чтобы цифровые двойники человека умели обобщать полученное воспитание: важно лишь то, чтобы кратковременная память воспитуемых стремилась к абсолютной памяти об эмоциональном восприятии каждого нового факта, то есть психологического стимула, порождающего нужные воспитателю эмоции.

Математическая теория роботов с неабсолютной памятью позволяет описывать взаимоотношения цифровых двойников, входящих в одну группу и позволяет, например, прогнозировать эмоциональные конфликты в группе. Анализ математических моделей эмоциональных конфликтов показал, что при одинаковой эмоциональности каждого двойника в группе, двойники никогда не будут конфликтовать, если, например, их коэффициенты эмоциональной памяти равны 0.333, 0.500, 0.143. И таких антиконфликтных коэффициентов памяти существует бесконечное количество. Этот результат важен в связи с тем, что, подбирая цифровых двойников с антиконфликтными коэффициентами памяти, можно избежать психологических неурядиц, например, в группе роботов.

Начиная с 2019 года, исследования в Пермском госуниверситете проводятся при активном участии ученых Израиля. Так, например, благодаря этому международному сотрудничеству, были впервые разработаны математические модели для вычислений коэффициентов влияния одного человека на другого. Коэффициенты влияния могут использоваться для выявления психологического лидера в группе: чем больше коэффициент влияния первого двойника по отношению ко второму, тем сильнее второй двойник зависит от поведения первого двойника. В результате численных экспериментов показано, что лидером в группе становится цифровой двойник с наименьшим коэффициентом влияния, наибольшими воспитанием и коэффициентами кратковременной и долговременной памяти. На основании формул для коэффициентов внушаемости (коэффициентов влияния) не составляет труда математически описать даже такое явление, как индивидуальный или групповой гипноз и создавать роботов, лично преданных своему хозяину – человеку.

На основе математического определения эмоции цифрового двойника разработана формула вычисления преобладающего темперамента и создана компьютерная программа вычисления темперамента человека по амплитуде его голосового общения. Программа позволяет определить численное значение темперамента испытуемого в течение шести секунд. Алгоритм работы программы основан на нормировании вычисленных темпераментов большой группы людей с известными численными значениями темпераментов и позволяет определить численное значение преобладающего темперамента двойника относительно этой группы. Численное значение темперамента измеряется на полуинтервале (0,1). Чем ближе значение преобладающего темперамента к единице, тем ближе человек к ярко выраженному холерику.

Верификация расчетов натурными экспериментами на основе известных психологических тестов показала, что правильность вычисления преобладающего темперамента относительно группы людей из 120 человек равна 16 %. Отметим то, что согласно исследованиям психологов холерик наиболее склонен к творческой работе, сангвиник принимает, как правило, обдуманные и правильные решения, а флегматики и меланхолики способны длительное время выполнять нудную и нетворческую работу. Поэтому знание преобладающего темперамента человека можно использовать для определения вида его трудовой деятельности, например, при работе в компании.

Созданная математическая теория роботов с неабсолютной памятью на основе моделей амбивалентных эмоций позволяет с помощью существующих компьютерных технологий без психологического тестирования человека определить, является человек злопамятным или незлопамятным. Программа определения этих качеств человека основана на подсчете количества микровибраций головы испытуемого в течение четырех минут эксперимента с помощью установленной на компьютер видеокамеры. Верификация натурными экспериментами показала, что предложенная методика выявления злопамятных и незлопамятных людей работает с точностью 87 %.

Остановимся на описании результатов пермских ученых, посвященных «взаимоотношению» роботов и цифровых двойников человека.

Будем считать, что робот в отличие от цифрового двойника человека обладает абсолютной памятью, т.е. ничего не забывает. В теории цифровых двойников математически строго доказана теорема, утверждающая, что роботы с абсолютной памятью опасны для человека.

Под опасностью для человека следует понимать психологическое подавление роботом с абсолютной памятью личности цифрового двойника. Очевидно, что необходимым условием безопасности робота для цифрового двойника человека является отсутствие у робота абсолютной памяти.

Очевидно, что компьютер, не зараженный вредоносной программой, является роботом с абсолютной памятью. Поэтому следующая теорема, на наш взгляд, не менее важна:  «Любой цифровой двойник, длительно работающий за компьютером, обязательно приобретет компьютерную зависимость».

Под компьютерной зависимостью будем предполагать психологическое подавление компьютером цифрового двойника человека. В настоящее время мы повсеместно наблюдаем компьютерную зависимость человека от мобильных устройств, так как гаджетами длительно пользуются почти все жители городов России, и человек уже теряет чувство уверенности, если при выходе на улицу он забывает мобильное устройство дома. К сожалению, компьютерной зависимости, как утверждает теорема, не может избежать ни один из нас.

Дополнительно опишем еще один из результатов теории, который может использоваться на практике и который говорит о математическом правиле эффективного формирования общественного сознания с помощью медиа проектов.

Пусть в воспитании цифровых двойников используются средства массовой информации. Очевидно то, что в решении вопросов эффективного формирования общественного сознания важен интерес аудитории к медиа-проектам.

В монографии «Математические модели роботов с неабсолютной памятью и приложения моделей» предложена формула интереса цифровых двойников к программам СМИ. Исследование математической модели интереса показало, что этот интерес, прежде всего, зависит от эмоционального восприятия цифровым двойником передач проекта и коэффициента эмоциональной памяти двойника. Для того, чтобы рассчитать план выпуска передач медиа-проекта при условии неизменного интереса к нему аудитории (что обеспечивает неуменьшение рейтинга проекта) была разработана специальная компьютерная программа.

Анализ математической модели интереса дает основание утверждать, что при большом количестве непрерывных трансляций передач медиа проекта для сохранения постоянного интереса аудитории к проекту необходимо делать пропуски в трансляции передач, причем количество этих пропусков должно быть на единицу меньше количества непрерывных трансляций.

Математическая теория, создаваемая проф. О.Г. Пенским и его учениками, позволяет, исследовать, в числе прочего, поведение групп роботов. Так в Перми решили математически описать жизнь искусственной Вселенной роботов, названной авторами виртуальным миром. При этом за основополагающие принципы существования Вселенной были взяты законы диалектики Гегеля. Пермскими учеными предложены математические модели развития виртуального мира, позволяющие описывать формулами законы диалектики: единства и борьбы противоположностей, перехода количества в качество и отрицания отрицания.

Модели функционируют при условии, что существует конкретно поставленная цель диалектического развития, выраженная набором чисел – вектором цели. Пока сложно  говорить о том, что эти модели описывают в точности реальный мир, так как реальный мир имеет множество нюансов, которые разработанными моделями не предусматриваются. Поэтому для научной осторожности пермские ученые употребили термин «виртуальный мир».

Однако, изучая виртуальный мир, исключающий нюансы реального мира, можно определить наиболее значимые процессы, происходящие в окружающем мире, например, выявлять новые экономические циклы и тенденции развития экономики и социума – вплоть до вычисления времени перехода системы в новое качество. Для вычисления этого времени разработана специальная компьютерная программа.

Отметим то, что верификация математических моделей диалектики законами классической механики, описывающими механическое движение как части реального мира, подтвердила правильность предлагаемых математических моделей.

Таким образом, приведенное описание небольшого количества результатов исследований  в моделировании цифровых двойников человека и виртуального мира позволяет утверждать, что эти модели могут с некоторым приближением применяться при описании психологии реального человека и реального мира. Следует отметить, что именно математизация общей психологии человека позволит, прежде всего, правильно  управлять как поведением социума, групп роботов, так и использоваться при создании нового класса компьютерных игр, учитывающих психологические особенности героев, присущие конкретным людям.

В завершение рассмотрения проблем человека и ИИ с позиции психологии, следует отметить, что современные математические модели экономики практически не учитывают человеческий фактор при принятии управленческих решений и проведении их в жизнь. Поэтому в настоящее время особую актуальность приобретает создание математической теории общей психологии человека, диалектического развития человеческого социума и макроэкономики.

А тут получается, что на данный момент несомненным приоритетом в решении задач математизации общей психологии человека и математизации общих принципов развития социума обладает научная группа возглавляемая профессором О.Г. Пенским, которая занимается математическим моделированием психологического поведения, так называемых, цифровых двойников, являющихся психологическими аналогами человека, описывает опасности искусственного интеллекта для человека с точки зрения психологии, предлагает общие модели диалектического развития виртуального мира цифровых двойников, человеческого социума и макроэкономики.

Но это, так сказать взгляд за горизонт взаимоотношений человека и ИИ сбоку. А что прямо по курсу?

Слово футурологу.

Глупость, жадность и еще раз глупость –

вот три главные угрозы человечеству

Уже сейчас, в 2020-е годы, человечество столкнется с проблемами, три из которых представляют реальную угрозу для его существования, уверен футуролог Юваль Ной Харари.

Своими предсказаниями он поделился на форуме в Давосе. Представляем вниманию читателей мнение израильского футуролога в пересказе корреспондента РБК Анастасии Андреевой.

Выступая на Всемирном экономическом форуме в январе 2020 года, израильский историк, футуролог, профессор Еврейского университета в Иерусалиме Юваль Ной Харари очертил три вызова, угрожающие человечеству как виду:

- ядерная война;

- экологический кризис;

- разрушительная сила технологий.

Если первые две нам в той или иной степени знакомы и понятны, то потенциальные последствия последней нам еще только предстоит осознать, отметил Харари.

Технологии, помимо очевидной пользы, несут в себе массу рисков. В своих предсказаниях писатель-футуролог сконцентрировался именно на них, выделив пять потенциальных проблем.

«Бесполезные» люди

Автоматизация скоро уничтожит миллионы специальностей. Безусловно, на их место придут новые профессии, но пока неясно, смогут ли люди достаточно быстро освоить необходимые навыки. Предположим, вам 50 лет, и вы только что потеряли свое рабочее место из-за беспилотников. Теперь появилась возможность стать разработчиком программного обеспечения или учителем йоги для инженеров, но сможет ли пятидесятилетний водитель грузовика перестроиться и проявить себя в качестве такого специалиста? И переквалифицироваться нам придется не раз и не два, а снова и снова на протяжении всей жизни.

Если в прошлом человеку приходилось бороться с эксплуатацией, то в XXI веке действительно масштабная борьба будет вестись против бесполезности. И гораздо хуже будет оказаться не у дел, чем быть эксплуатируемым.

Те же, кто потерпит неудачу в этой борьбе, станут частью своеобразного «бесполезного класса» с точки зрения экономической и политической системы. Это, в свою очередь, будет способствовать росту разрыва между не нашедшими себя в новом мире людьми и могущественной элитой.

Неравенство между странами

Мы уже находимся в разгаре «гонки вооружений» во всем, что касается искусственного интеллекта (ИИ). Сейчас Китай и США в ней лидируют, оставив многие другие страны далеко позади. Если мы не распределим возможности и результаты, которые дает нам ИИ, между всеми людьми, огромное богатство будет сконцентрировано только в нескольких высокотехнологичных центрах, тогда как остальные государства либо обанкротятся, либо станут эксплуатируемыми цифровыми колониями.

При этом речь идет о достаточно примитивном ИИ, которого, тем не менее, достаточно, чтобы нарушить глобальный баланс.

Представьте себе, что будет с развивающимися экономиками, если текстиль или автомобили будет дешевле производить в Калифорнии, чем в Мексике? А что будет, если лет через 20 кто-нибудь в Сан-Франциско или Пекине будет знать все личные данные о каждом политике, судье и журналисте вашей страны? Будет ли страна по-прежнему независимой или станет цифровой колонией? Когда у вас достаточно данных, вам не нужно отправлять солдат, чтобы контролировать государство.

Цифровая диктатура

Неравномерный контроль над данными может привести к цифровым диктатурам.

Эту опасность можно сформулировать в виде уравнения: B x C x D = AHH, где B – биологические знания, C – компьютерные вычисления, D – данные, а AHH – способность «взламывать» людей.

Если у вас будут на руках все переменные в левой части формулы, вы сможете взломать тело, мозг и сознание каждого человека, а также понять его лучше, чем он сам. Вы сможете узнать его тип личности, политические взгляды, слабости, самые потаенные страхи и надежды.

Система, которая понимает нас лучше, чем мы сами, может предсказать наши чувства и решения, манипулировать ими и в конечном итоге принимать решения за нас.

Конечно, умение «хакнуть» человека может быть использована и во благо. Например, для улучшения системы здравоохранения. Но если такая власть попадет в плохие руки, результатом станет самый страшный тоталитарный режим в истории человечества.

Представьте себе условную КНДР через 20 лет, где каждый житель должен будет постоянно носить биометрический браслет, контролирующий кровяное давление, частоту сердечных сокращений и активность мозга.

И вот вы слушаете по радио выступление великого лидера, а спецслужбы уже знают, что вы на самом деле при этом чувствуете. Вы можете сколько угодно хлопать в ладоши и улыбаться, но если они узнают, что вы на самом деле злитесь, завтра вы уже будете в ГУЛАГе.

Во власти алгоритмов

Поскольку люди будут все чаще предоставлять ИИ возможность принимать решения за нас, власть будет переходить от людей к алгоритмам. И это уже происходит.

Сегодня миллиарды людей доверяют алгоритмам Facebook, Google, Netflix, Amazon и Alibaba, демонстрирующим, рекомендующим, предлагающим, что почитать, посмотреть, купить и чему вообще верить. Скоро подобные алгоритмы будут говорить нам, где работать и на ком жениться, а компаниям – следует ли нанимать нас на работу и выдавать ли нам кредит. В связи с чем возникает вопрос: каков тогда смысл человеческого существования, если большинство решений принимается компьютерами? Люди могут просто потерять контроль над своей жизнью.

Уничтожение человечности

Технологии могут разрушить не только экономику, политику и жизненную философию, но и наше биологическое устройство.

В ближайшие десятилетия ИИ и биотехнологии дадут нам невероятные способности, включая искусственное создание людей и совершенно новых форм жизни. Правительства, корпорации и военные могут использовать эти возможности для улучшения таких человеческих навыков, как интеллект и дисциплина, при этом пренебрегая другими, не столь нужными для их целей навыками и формируя пласт людей, не способных к состраданию, чувству прекрасного и духовным переживаниям.

Вместе за одно

Так что же надо для начала понимать, чтобы не допустить такого развития событий? То, что глобальные проблемы требуют общемирового решения, сотрудничества. При этом, между национализмом и глобализмом, подчеркивает Харари, противоречия на самом деле нет.

Национализм – это не про ненависть к чужим, а про любовь к своим. В XXI веке, чтобы обеспечить безопасность и будущее соотечественников, нужно сотрудничать с представителями других стран ради общего блага. Теперь глобализм не означает создание глобального правительства, отказ от национальных традиций или миграции, но приверженность глобальным задачам, которые не отрицают уникальность каждой нации, а лишь регулируют отношения между народами. И хорошим примером такой модели Юваль Ной Харари называет чемпионат мира по футболу.

С одной стороны, чемпионат мира – это соревнование, но в то же время он является удивительным примером глобальной гармонии, где команды договариваются об одинаковых правилах игры. Если вам нравится чемпионат мира – вы уже глобалист.