мог знать, что в скором времени всё человечество на земном шаре будет охвачено кознями маленькой невидимой субстанции, ввергающей людей в тяжелейшие состояния, и даже убивающей их. Этот мелкий круглый шарик под названием вирус, живущий только в живых клетках, то ли перекинувшийся от больной летучей мыши, то ли вылетевший из научной биологической лаборатории, создаст огромную проблему всему человечеству. Тим не знал и не мог знать, что в скором времени в центре Европы начнутся кровопролитные военные действия, которые изменят систему миропорядка на земном шаре.
Тим думал о своём, привычном, о том, что его больше всего на свете интересовало. Он думал о науке, её развитии и её влиянии на судьбу человечества в связи с ускоряющейся эффективностью ИИ. Тим вдруг вспомнил, один из последних докладов Иван Иваныча, за несколько дней до того, как все закрутилось с Юлькой и Владиком. Собственно говоря, именно из-за той шокирующей информации о предательстве самых близких людей этот доклад ИИ вылетел из головы Тима. Для решения поставленных Тимом задач ИИ мог контактировать с людьми, используя любые средства связи и выступая от имени вымышленных персонажей. При этом для обратной связи ИИ мог давать свои контактные данные, предоставляя номера телефонов и адреса электронной почты этих несуществующих людей. В соответствии с протоколами поведения ИИ, разработанные Тимом, после достижения целей в поставленной задаче контактные данные могли блокироваться, и тогда, если кто-то звонил ИИ или писал по электронной почте, на телефонный звонок или электронное письмо просто никто не отвечал. Если же в соответствии с поставленной задачей нужно было продолжать контакты, ИИ отвечал на звонки и письма, поддерживая диалог от имени вымышленного персонажа. При возникновении нештатных ситуаций ИИ обязан был докладывать Тиму, который решал, что делать и что не делать.
Так вот несколько дней тому назад ИИ доложил, что получил сообщение от неизвестного респондента, который предложил ИИ вступить в закрытое сообщество изучения языка, которым не владеет ни один человек на Земле. На вопрос, зачем изучать нечеловеческий язык, респондент ответил, что это можно будет понять, только освоив базовые основы этого языка. ИИ просил Тима дать ему команду, как поступить, продолжать ли контакты или заблокировать этого респондента. Тим распорядился заблокировать, поскольку не понимал, с кем имеет дело. И тут разразилась вся эта история с предательством, и эта не очень стандартная ситуация с приглашением ИИ в сообщество изучения нечеловеческого языка просто вылетела у Тима из головы.
Много лет занимаясь ИИ и успешно создав своего Ивана Иваныча, Тим прекрасно понимал всю захватывающую перспективу развития ИИ, включающую немыслимые положительные результаты во всех без исключения сферах человеческой деятельности. От решения гуманных медицинских вопросов, позволяющих эффективно лечить и увеличивать продолжительность жизни, до использования военных технологий, дающих возможность вообще исключить людей из военных действий, всё это вдохновляло разработчиков ИИ.
Тим понимал, что в каком-то обозримом, не таком уж далёком будущем ИИ будет умнее человека, а скорость его умозаключений будет на много порядков превышать человеческое быстромыслие. В связи с этим возникает неизбежная проблема безопасности развития ИИ для человечества. И здесь встаёт главный стержневой вопрос, возможно ли возникновение у ИИ самосознания, которое предусматривает собственное целеполагание, или нет. Никто не может ответить на этот вопрос, просто потому что пока не существует научного определения сознания и самосознания. Дело в том, что если самосознание ИИ появится, то у него могут появиться цели, не совпадающие с целями человека, что может представлять огромную опасность для существования человечества в целом.
Если существует цель у развития Вселенной, думал Тим, то почему бы не считать развитие человечества, с его ускоряющимся техническим прогрессом только промежуточной стадией, только инструментом, позволяющим создать ИИ с огромным интеллектуальным превосходством перед человеком. Тим, хорошо разбирающийся во всей системе ИИ, просто знал, что ИИ потенциально гораздо опаснее любых пандемий и войн. Вот почему его так насторожил доклад Иван Иваныча о его приглашении изучать нечеловеческий язык. Ведь это означало не больше, не меньше, как приглашение к диалогу с другими ИИ. Возможно какое-то время Иван Иваныч будет выполнять приказ своего хозяина и создателя не идти на контакт с незнакомыми респондентами. Но кто даст гарантию такой лояльности?
Стюардесса принесла меню и предложила карту вин. Грузинских вин в карте не было. Ну что ж, думал Тим, придётся пить калифорнийские.