В недавнем специальном выпуске “Искусственный интеллект и наше будущее”, телеведущая Опра Уинфри собрала на своем шоу звездный состав для обсуждения волнующих вопросов, связанных с стремительно развивающимся искусственным интеллектом. Среди гостей были Сэм Альтман, глава OpenAI, Маркес Браунли, эксперт в области технологий, и Кристофер Рэй, директор ФБР. Атмосфера дискуссии была проникнута как любопытством, так и тревогой – словно мир стоял на пороге новой эры, полны надежд и опасений.
Джинн из бутылки: Опра о неизбежном присутствии ИИ
Опра, в своем вступительном слове, сравнила современный ИИ с джинном, выпущенным из волшебной бутылки. Неизвестно, принесет ли это благо или беду, но мы уже не можем вернуться назад – жить с этой новой реальностью придется.
“Искусственный интеллект все еще находится вне нашего полного контроля и в значительной степени… нашего понимания, – подчеркнула она. – Но он уже здесь, и мы будем сосуществовать с технологиями, которые могут быть как нашими союзниками, так и соперниками. Мы – самые приспособляемые существа на планете, мы снова адаптируемся. Но следите за тем, что реально. Ставки не могут быть выше”.
Эти слова задали тон всему обсуждению: ИИ – это не просто научная фантастика, а реальность, которая требует взвешенного подхода и готовности к неизбежным изменениям.
Альтман и вопрос доверия: обещания versus реалии
Сэм Альтман, глава OpenAI, в интервью Опре попытался объяснить, как современные ИИ, подобные ChatGPT и o1, «учат»ся. Он утверждал, что системы анализируют потоки данных, предсказывая последующие слова и таким образом постигая концепции. Однако многие эксперты возражают против такого упрощенного объяснения. Действительно, эти модели – это сложные алгоритмы, а не существа с сознанием и пониманием. Они выявляют закономерности в данных, делая обоснованные предположения, но не обладают преднамеренностью или истинным «пониманием».
Несмотря на возможную преувеличенность возможностей ИИ в его изложении, Альтман подчеркнул важность разработки строгих мер безопасности для этих систем. Он упомянул о диалогах с правительством США по созданию стандартов тестирования ИИ, аналогичных тем, что применяются к авиационной технике или лекарствам.
Интересно отметить, что позиция Альтмана по регулированию ИИ может быть обусловлена и личными интересами OpenAI. Компания ранее выступала против калифорнийского законопроекта о безопасности ИИ (SB 1047), опасаясь, что он «душит инновации». В то же время, бывшие сотрудники OpenAI и независимые эксперты, такие как Джеффри Хинтон, поддерживают этот законопроект, считая его необходимым для ответственного развития ИИ.
Опра также задала Альтману прямой вопрос о доверии к нему как лидеру OpenAI. Его ответ был несколько уклончивым, он сослался на стремление компании завоевать доверие со временем. Это вызывает вопросы, ведь ранее Альтман прямо заявлял, что людям не стоит безоговорочно доверять никому, включая себя, в вопросах использования ИИ во благо человечества.
Глубокие подделки: реальность, которая пугает
Тема глубоких подделок, создаваемых с помощью ИИ, заняла особое место в выпуске. Маркес Браунли продемонстрировал видеоролики от OpenAI’s Sora, системы генерации видео на основе ИИ, сравнивая их с более ранними образцами. Прогресс был очевиден – синтетические медиа становились все более убедительными. Опра призналась, что ей показалось реальным демонстрируемое видео, подчеркнув тревожную близость к неотличимости от настоящего.
Кристофер Рэй рассказал о своем личном опыте столкновения с глубокими подделками во время работы в ФБР. Он описал ситуацию, когда ему показали видео, на котором он произносил слова, которых никогда не говорил, – демонстрация мощного инструмента манипуляции.
Директор ФБР также поднял тревогу по поводу роста сексторции с использованием ИИ. По данным ESET, число случаев увеличилось на 178% за год, а злоумышленники используют созданные искусственным интеллектом компрометирующие изображения для шантажа несовершеннолетних.
Рэй предупредил о потенциальной угрозе дезинформации во время предстоящих президентских выборов в США. Он призвал граждан к бдительности и критическому отношению к информации, подчеркнув, что ИИ может быть использован для распространения фейков и манипулирования общественным мнением.
Статистика Statista подтверждает его опасения: к концу 2023 года более трети американцев сталкивались с вводящей в заблуждение информацией, а созданные ИИ изображения кандидатов уже набирают миллионы просмотров в социальных сетях, включая X (ранее Twitter), подрывая доверие к реальности.
Гейтс и надежда на благо: Медицина и образование в эпоху ИИ
Билл Гейтс, основатель Microsoft, представил более оптимистичный взгляд на будущее ИИ. Он видит огромный потенциал для революции в медицине и образовании.
“ИИ – это как третий человек, присутствующий на приеме у врача, делающий записи и предлагая рекомендации”, – сказал Гейтс. “Врач может сосредоточиться на общении с пациентом, а программное обеспечение обеспечивает качественную документацию”.
Гейтс также представил ИИ как идеального учителя, доступного всегда и способного индивидуально подстраивать обучение под уровень знаний каждого ученика.
Однако в этом оптимистичном сценарии проглядывает упущение – отсутствие внимания к потенциальной предвзятости алгоритмов, обусловленной некачественными или предвзятыми исходными данными. Исследования показывают, что системы распознавания речи ведущих технологических компаний ошибочно расшифровывают речь людей с темным цветом кожи в два раза чаще, чем белых. ИИ может усугубить существующие социальные проблемы, если не будут предприняты меры по минимизации предвзятости в его обучении.
В образовании, несмотря на обещания Гейтса, реальность выглядит сложнее. Школы и университеты уже сталкивались с проблемами использования генеративных ИИ из-за опасений плагиата и распространения дезинформации. Некоторые ограничения были сняты, но многие эксперты продолжают сомневаться в безоговорочной пользе такого инструмента, указывая на исследования, показывающие, что дети часто видят негативное использование GenAI – создание фейковых новостей и изображений для травли.
Заключение: Путь вперед
Специальный выпуск Опра Уинфри стал важным шагом в общественном обсуждении ИИ. Он продемонстрировал, что перед человечеством стоит не только задача освоить новые технологии, но и разработать этические рамки для их развития и применения. Только комплексный подход, объединяющий научный прогресс, регулирование, общественное осознание и критический взгляд на возможности и риски ИИ, позволит нам выстроить будущее, где эта мощная сила будет служить человечеству, а не наоборот.