Скачать "Отец VR про ИИ: Будущее, Технологии, Дипфейки и Новая Экономика"

Скачайте это видео через UDL Client
  • Видео mp4 HD+ со звуком
  • Mp3 в максимальном качестве
  • Файлы любого размера
Теги видео
|

Теги видео

artificial intelligence
искусственный интеллект
джарон ланье
микрософт
microsoft
ии
нейросети
chatgpt
машинное обучение
openai
искусственный интеллект 2024
чат gpt
роботы
наука
технологии
технологии будущего
нейронные сети
будущее
ai
илон маск
chatgpt в россии
про роботов
искусственный разум
черное зеркало
курпатов
новости технологий
midjourney
прогнозы ии
научпоп
gpt 4
новости ии
риски ии
ии 2024
дилемма ии
gpt 5
pro роботов
jaron lanier
Субтитры
|

Субтитры

00:00:00
. Нэйт : Джарон Ланье, добро
00:00:02
пожаловать!
00:00:03
Сейчас ты главный объединяющий ученый в Microsoft, хотя здесь
00:00:06
ты в другом качестве.
00:00:07
Но я просто в восторге от названия этой должности.
00:00:14
Как так получилось?
00:00:18
Джарон: Название довольно комичное.
00:00:21
Я отчитываюсь перед главным техническим директором.
00:00:26
Отдел главного технического директора и главный объединяющий
00:00:29
ученый вместе складываются в слово осьминог.
00:00:32
А мои студенты говорят, что я как раз похож на осьминога.
00:00:36
Еще я интересуюсь их нервной системой, она просто потрясающая.
00:00:41
В общем мы подумали, что название подходит должности.
00:00:46
Нэйт: Полностью согласен.
00:00:47
Нам есть много что обсудить, ведь твой невероятный профессиональный
00:00:50
опыт охватывает многие десятилетия.
00:00:53
Думаю, важно отметить, что 40 лет назад ты был первооткрывателем
00:00:56
в области технологий в таких компаниях, как Atari.
00:01:00
Мне бы очень хотелось услышать, как вы видели будущее отрасли
00:01:04
тогда и насколько сегодняшняя реальность соответствует
00:01:07
вашим прогнозам.
00:01:08
Джарон: О, интересный вопрос.
00:01:14
Мне кажется, о таком меня еще не спрашивали.
00:01:17
Вспомнить бы те дни.
00:01:19
Джэки: Представь, что мы в машине времени.
00:01:23
Джарон: Ну, хорошо.
00:01:24
В конце 70-х - начале 80-х у меня был наставник Марвин
00:01:28
Минский, у которого я, будучи подростком, работал исследователем.
00:01:33
Он заложил основы того, как мы сегодня понимаем
00:01:37
ИИ.
00:01:40
Все эти идеи, истории, страхи, подходы - вообще все представление
00:01:45
об ИИ сложилось благодаря Марвину.
00:01:47
Мне не нравилось это.
00:01:49
Я всегда думал, что ИИ - это ужасная вещь.
00:01:51
Что это просто способ совместной работы людей.
00:01:54
Просто люди и маски.
00:01:55
Мы просто все усложняем.
00:01:57
Зачем мы пытаемся создать это существо, какого-то
00:02:00
искусственного Бога?
00:02:03
Марвин любил спорить со мной, потому что все остальные
00:02:05
работники лаборатории были согласны с ним.
00:02:08
И последний раз, когда мы виделись перед его смертью,
00:02:11
он сказал: «Джарон, можем ли мы поспорить?»
00:02:13
Было здорово сделать это в последний раз.
00:02:16
И я всегда думал: «Нет, нет, нет, это все неправильно»,
00:02:19
и это подтолкнуло меня к другой идее.
00:02:22
Я назвал ее виртуальной реальностью.
00:02:25
Так я запустил свой первый стартап в этой сфере, а
00:02:29
затем мы создали первую гарнитуру для виртуальной
00:02:31
реальности.
00:02:32
Нэйт: Ты был оптимистичен по поводу того, как шли
00:02:37
дела?
00:02:38
Джарон: Сейчас я еще более оптимистичен.
00:02:41
Я думаю, чтобы быть оптимистом, нужно уметь быть строгим
00:02:47
критиком.
00:02:48
Критик верит, что все можно сделать лучше.
00:02:51
Именно критик - настоящий оптимист, даже если он не
00:02:55
хочет этого признавать, даже если он не хочет показаться
00:02:58
мягким.
00:02:59
Только критик может сказать, что будет лучше.
00:03:00
Следовательно, оптимизм - это молчаливое согласие,
00:03:05
типа: «Да, так и есть».
00:03:06
Такие люди в какой-то степени бесполезны.
00:03:07
Я был критиком и спорил с Марвином из-за ИИ, критически
00:03:11
относился к социальным сетям и вообще ко многим
00:03:16
вещам.
00:03:41
заработку на таких технологиях.
00:03:44
Что ты думаешь об этом?
00:03:45
Джарон: Что ж, сейчас я не говорю от лица Microsoft.
00:03:48
Но хочу сказать всем, кто говорит: «О, я бы не хотел
00:03:51
платить за использование самого качественного ИИ.
00:03:54
Пожалуй, воспользуюсь бесплатной версией».
00:03:57
Эта плата - плата за вашу свободу.
00:03:59
Это значит, что механизм, за который вы платите, не
00:04:02
является средством манипуляции.
00:04:04
Есть только два варианта.
00:04:05
В рыночной экономике должен быть потребитель.
00:04:08
И потребителем являетесь либо вы, либо тот, кто хочет
00:04:11
манипулировать вами.
00:04:12
Такие вот варианты, понимаете?
00:04:14
Нам нужно признать тот факт, что мы должны быть
00:04:17
полноправными участниками рыночной экономики, иначе
00:04:22
подчинимся тем, кто уже ими является.
00:04:25
Джэки: Значит, не стоит ждать, что все будет бесплатным?
00:04:29
Джарон: Ну, да.
00:04:30
Хотя хотелось бы, чтобы было иначе.
00:04:32
Я люблю тратить деньги не больше, чем кто-либо
00:04:34
другой.
00:04:35
Но рыночная экономика устроена так, что если вы не хотите
00:04:39
платить за что-то, кто-то другой получит некоторую
00:04:42
выгоду от манипулирования вами.
00:04:45
Это логично, понимаете?
00:04:48
Это неизбежно.
00:04:49
Нэйт: Давай коснемся темы открытого исходного кода.
00:04:52
В области ИИ… сейчас ведутся споры о том, может ли переход
00:04:56
к определенным моделям с открытым исходным кодом
00:04:59
усугубить риск дезинформации.
00:05:03
Что ты думаешь об этом?
00:05:05
Джарон: Ох, ну…
00:05:07
Тема в общем-то непростая, и мое мнение иногда вызывает
00:05:11
не дружелюбную реакцию со стороны моих коллег.
00:05:16
Но я постараюсь объяснить, что думаю об этом всем.
00:05:19
Мне кажется, идея с открытым исходным кодом появилась
00:05:22
из благих намерений.
00:05:23
Люди верят в то, что это делает вещи более доступными,
00:05:27
демократичными, честными, безопасными и т.д.
00:05:30
Проблема заключается в математике сетевых эффектов.
00:05:33
Предположим, есть группа людей, которые делятся
00:05:36
вещами бесплатно.
00:05:37
Может, музыкой, или компьютерным кодом, или всякими другими
00:05:41
вещами.
00:05:42
Что-то вроде коммунитаризма, “мы всем делимся”, у нас
00:05:45
бартер.
00:05:48
Огромная бартерная система.
00:05:49
Но обмен всеми этими бесплатными вещами может привести к
00:05:53
монополии из-за сетевых эффектов, и к такой, что
00:05:58
переплюнет Google или типа того.
00:06:00
В итоге вместо децентрализации мы получим гиперцентрализацию.
00:06:06
Так что это стимулирует сохранять определенные
00:06:09
вещи в строжайшем секрете.
00:06:11
Например, алгоритмы или производные данные, которые
00:06:16
очень дорого генерировать.
00:06:17
Думаю, идея о том, что открытый доступ ведет к децентрализации,
00:06:23
просто математически неверна.
00:06:27
Есть бесконечное количество примеров в подтверждение.
00:06:30
Но эта мысль все еще очень распространена, ведь она
00:06:33
кажется такой правильной.
00:06:35
Но это не так работает.
00:06:36
Нэйт: Некоторые аргументы основаны на том, что системы
00:06:39
ИИ и особенно большие языковые модели представляют собой
00:06:42
черный ящик.
00:06:43
Мы не можем видеть, как все работает.
00:06:46
Но если есть модель с открытым исходным кодом, то мы можем
00:06:49
увидеть.
00:06:50
Джарон: Ладно, хорошо.
00:06:51
Есть и другая идея открытости, которая принесет пользу
00:06:55
всем, включая владельцев больших моделей, пользователей,
00:06:59
общество, вообще всех.
00:07:00
Вместо того, чтобы раскрывать код, который ведет к монополиям
00:07:05
- и поэтому некоторые продолжают поддерживать такое - нам
00:07:08
нужен принцип происхождения данных.
00:07:12
Я приведу пример.
00:07:14
Допустим, вы взаимодействуете с чат-ботом.
00:07:17
Чат-бот ведет себя странно с вами.
00:07:19
Он пишет: «О, я люблю тебя.
00:07:20
Тебе нужно развестись.
00:07:22
Мы должны быть вместе».
00:07:23
Как мы можем предотвратить это?
00:07:25
Скажем, можно взять один ИИ, чтобы он контролировал
00:07:28
другой ИИ, первый посмотрит на второй, скажет: «Ты ведешь
00:07:31
себя странно.
00:07:32
Прекрати.
00:07:33
Прекрати.
00:07:34
Прекрати».
00:07:35
Это сложно.
00:07:36
И причина кроется в ограничениях самого языка.
00:07:38
Это интересное явление, которое человечество исследовало
00:07:43
тысячи лет.
00:07:45
Вспомните сказки о волшебной лампе с джинном.
00:07:48
Вы трете лампу, появляется джинн и исполняет желания.
00:07:52
Но может встретиться подлый джинн, и что бы вы ни сказали,
00:07:54
он извратит смысл.
00:07:56
В этом и заключается проблема ИИ, который управляется
00:08:00
другим ИИ.
00:08:01
Ведь слова можно исказить.
00:08:03
Они еще более неоднозначны, чем мы думаем.
00:08:06
Всю жизнь нам кажется, что слова точны, но это не так.
00:08:10
Большие языковые модели работают потому, что на
00:08:12
первом месте у них статистика.
00:08:14
Они хорошо работают с нашими статистическими данными.
00:08:18
Но есть и другой способ.
00:08:21
Каждый раз, когда вы получаете ответ от ИИ, в какой-то степени
00:08:25
он опирается на миллиарды примеров от всего человечества,
00:08:28
миллиарды изображений, примеров текста...
00:08:30
но в каждом конкретном примере ответа всего этого
00:08:34
нет.
00:08:36
В конкретном примере будет лишь небольшое количество
00:08:40
данных.
00:08:41
Я делаю такие движения рукой, потому что показываю
00:08:44
статистическое распределение, занимаюсь математикой,
00:08:47
так сказать.
00:08:48
Допустим, мы сможем отследить, кто именно внес информацию,
00:08:52
имеющую отношение к вашему запросу.
00:08:54
Предположим, чат-бот начинает вести себя странно.
00:08:57
Вы спрашиваете: «Зачем ты написал это?»
00:08:59
А бот отвечает: «Я опираюсь на эротические фанфики
00:09:02
и мыльные оперы».
00:09:06
Вы говорите ему: «Знаешь, не делай так больше».
00:09:08
По сути, зная источники, которые были объединены
00:09:11
для создания ответа, вы можете увидеть всю магию
00:09:16
ИИ.
00:09:17
Он может брать примеры людей и последовательно
00:09:21
объединять их.
00:09:23
Он может распознавать кошек или распознавать воздушные
00:09:26
шары.
00:09:28
Если вы попросите его посадить кошку в воздушный шар, то
00:09:31
он случайным образом совместит два запроса и в итоге выдаст
00:09:34
кошку в воздушном шаре.
00:09:35
Это невероятно.
00:09:37
И вы всегда можете начать заново.
00:09:39
Но мы этого не делаем, ведь привыкли к идее, что интернет
00:09:42
загадочный.
00:09:43
Мы не знаем, откуда там все взялось.
00:09:45
Но не нужно так думать об ИИ.
00:09:47
Поскольку ваш канал является бизнес-ориентированным,
00:09:50
есть одна замечательная вещь...
00:09:52
как только вы сможете сказать, кто внес вклад в ответ ИИ,
00:09:56
вы сможете стимулировать людей вводить новые данные,
00:10:00
которые сделают ИИ еще лучше.
00:10:01
Это во-первых.
00:10:02
А во-вторых, вы можете вознаграждать их за это.
00:10:05
Вместо того, чтобы говорить: «Вытесним всех рабочих
00:10:08
и перейдем на безусловный базовый доход»...
00:10:11
и идти к печальному финалу, на мой взгляд.
00:10:14
Так было, когда все оказывалось сосредоточено в обществе
00:10:17
единого плательщика, начиная с большевиков, заканчивая
00:10:20
сталинистами.
00:10:21
Ведь самые ужасные люди хотят все контролировать.
00:10:24
Джэки: Давайте об этом.
00:10:25
Ты называешь это достоинством данных.
00:10:27
Суть заключается в том, что если я публикую данные,
00:10:31
я должна получить компенсацию.
00:10:32
Особенно, если они используются для обучения алгоритмов.
00:10:36
Как это работает на практике?
00:10:37
Джарон: Ну, прямо сейчас это не работает.
00:10:40
Чтобы сделать это, мы должны рассчитать и представить,
00:10:42
какие именно человеческие ресурсы были наиболее важными
00:10:46
для конкретного ответа ИИ.
00:10:47
Сейчас мы этого не делаем.
00:10:49
Хотя можем делать эффективно и успешно.
00:10:52
Просто пока еще не дошли до такого.
00:10:53
Переход к этому должен быть общественным решением.
00:10:56
Есть много ситуаций, когда люди говорят: «Ой, я не знаю,
00:11:00
хочу ли, чтобы мне платили.
00:11:01
Мне просто нравится делать это» и тому подобное.
00:11:04
Я думаю, есть много вариантов решения того, как это будет
00:11:07
работать.
00:11:08
Но дело в том, что я не хочу, чтобы появлялось больше
00:11:11
людей, жизнь которых будет зависеть от выплат.
00:11:13
Я хочу создать более творческий класс людей, умеющих предоставлять
00:11:17
свежие данные, которые улучшат работу моделей
00:11:20
и принесут пользу всем.
00:11:21
Нэйт: Еще в 90-х ты говорил, что чат-боты в какой-то
00:11:24
степени смогут влиять на демократию и выборы.
00:11:26
Это было почти 30 лет назад.
00:11:30
Джэки: Славные времена.
00:11:31
Джарон: Я писал об этом гораздо раньше.
00:11:34
Но тогда мы называли их не чат-ботами, а агентами.
00:11:37
Джэки: Звучит страшнее.
00:11:38
Джарон: В фильмах «Матрица» были такие ИИ-программы
00:11:41
в образе людей, похожих на секретных агентов.
00:11:44
На мой взгляд, довольно жуткие.
00:11:46
И тогда мы назвали их агентами.
00:11:48
Агенты, которые помогут вам в жизни.
00:11:50
А я подумал: «Нет, они будут лживыми, глупыми.
00:11:53
Нет никакого смысла.
00:11:55
Не так это нужно делать».
00:11:56
Это ведь было очевидно.
00:11:57
Нэйт: Как ты относишься к нынешним чат-ботам?
00:12:00
Есть ли риск для демократии?
00:12:04
Джарон: Мы узнаем это очень скоро.
00:12:08
Последний раз, когда социальные сети были вовлечены в политику,
00:12:14
у многих людей появились различные страхи и опасения,
00:12:23
что привело к снижению... определенных уровней контроля
00:12:28
и поправок внутри крупных технологических компаний.
00:12:31
Так что, в каком-то смысле все могло быть еще хуже.
00:12:35
Но с другой стороны, я чувствую, что техническая культура
00:12:38
или просто коллективная восприимчивость инженеров,
00:12:41
которые все это создают, значительно выросла.
00:12:43
Джэки: А в целом доверяешь ли ты технологическим лидерам,
00:12:47
которые стоят за нынешними моделями искусственного
00:12:50
интеллекта?
00:12:51
Джарон: Ну, я знаю многих.
00:12:52
Можете предвзято ко мне относиться, но мне кажется,
00:12:57
что в этом плане нам очень повезло.
00:12:58
Джэки: Как думаешь, они учатся на своих ошибках?
00:13:02
Джарон: Надеюсь.
00:13:03
У нас еще не было таких ошибок, на которых можно
00:13:05
было бы учиться.
00:13:07
Джэки: Но что насчет соц. сетей?
00:13:08
Джарон: О, ну здесь да, конечно.
00:13:10
Но они предшествовали большим моделям.
00:13:13
Да, они связаны с ИИ.
00:13:14
Социальные сети почти наполовину похожи на большие модели
00:13:18
ИИ, не нравится мне термин.
00:13:19
Но именно его алгоритмы направляют людей в социальных
00:13:22
сетях.
00:13:23
Думайте об этом, как о чем-то, что управляется ИИ.
00:13:25
И это не очень хорошо обернулось для общества в целом.
00:13:29
Но хорошо работает для отдельных людей.
00:13:31
В общем, это очень сложная ситуация.
00:13:32
Нэйт: Многие из этих компаний - это те же компании, которые
00:13:36
коллективно совершали ошибки.
00:13:38
А мы, как пользователи, либо позволяли этому случиться,
00:13:41
либо сопротивлялись.
00:13:42
Теперь многие из тех же самых компаний, инженеров,
00:13:46
людей создают много чего нового.
00:13:47
И мне просто интересно, какой урок они извлекли,
00:13:53
ведь шанс у них был.
00:13:54
Джарон: Я думаю, они должны были научиться.
00:13:56
Если посмотреть на бизнес-модели технологических гигантов…
00:14:00
В США только пара настоящих гиганта, которые зависят
00:14:03
от рекламной бизнес-модели.
00:14:05
И это Meta, Alphabet…
00:14:07
Нэйт: Google.
00:14:08
Джарон: И еще хочу отметить технологических гигантов,
00:14:12
которые не зависят от нее.
00:14:13
Они занимаются рекламой, но не зависят от нее.
00:14:17
Это Apple, Microsoft, Amazon.
00:14:18
Вы можете жаловаться на нас или на другие компании,
00:14:21
и я надеюсь, вы делаете это.
00:14:22
Мы должны быть ответственными, поэтому делайте это.
00:14:25
Но эти компании не создают всякие странные и жуткие
00:14:28
вещи.
00:14:29
А их рыночная стоимость меньше.
00:14:32
Я просто хочу сказать, что Meta и Google недооценены, потому
00:14:35
что у них неправильная бизнес-модель.
00:14:38
Они многое делают.
00:14:39
Они должны быть более успешными.
00:14:41
Я считаю, что это глупая бизнес-модель.
00:14:43
И платформа с авторитарной формой управления нас обгонит,
00:14:47
что сейчас и происходит с Tik Tok.
00:14:49
Так почему мы это делаем, если все работает только
00:14:52
отчасти, неидеально?
00:14:54
Это все привычка, инерция, страх перемен, но мы должны
00:14:59
меняться.
00:15:00
Нэйт: Одна из серьезных проблем, которая затрагивает
00:15:02
все: начиная от дезинформации, демократии, социальных
00:15:05
сетей и заканчивая ИИ, связана с дипфейками.
00:15:08
Трудно спорить,что у них есть потенциал стать еще
00:15:10
более серьезной проблемой, судя по тому, что мы наблюдаем
00:15:13
в случае с генеративными моделями последние пару
00:15:16
лет.
00:15:17
На твой взгляд, есть ли способ предотвратить это
00:15:21
проблему?
00:15:23
Джарон: Здесь я должен кое в чем признаться.
00:15:28
В 90-х у нас с друзьями была небольшая стартап-компания
00:15:31
по машинному зрению.
00:15:32
Я думаю, что тогда мы сделали первые дипфейки.
00:15:35
Джэки: Так это вас нужно винить?
00:15:36
Джарон: Получается, меня.
00:15:37
Да.
00:15:38
Мы тогда использовали самую первую систему дипфейков
00:15:41
для блокировки сцен, запрещенных для несовершеннолетних.
00:15:44
- Джэки: С пивом Гиннесс?
00:15:45
- Джарон: Да.
00:15:46
Это я придумал.
00:15:48
Правда, это было похоже на ранний прототип дипфейка.
00:15:51
Хорошо, ответ на вопрос про дипфейки пред - принцип
00:15:54
происхождения данных, о чем я уже говорил.
00:15:56
Если вы знаете, откуда взялись данные, дипфейки не проблема.
00:16:00
Вы видите, откуда все взялось.
00:16:02
Система происхождения данных должна быть надежной,
00:16:05
без фальсификаций.
00:16:06
Она скажет: «Да, это комбинация.
00:16:08
Кто-то из китайской военной разведки смешал это, то,
00:16:11
вот то и еще кое-что».
00:16:12
Ну и ладно, к черту!
00:16:14
Понимаете, происхождение данных - это единственный
00:16:17
способ борьбы с мошенничеством.
00:16:21
Я действительно думаю, что сюда должны быть вовлечены
00:16:23
надзорные органы.
00:16:24
Все мы, Microsoft, OpenAI, вообще все должны обращаться к
00:16:29
ним: «Контролируйте нас.
00:16:30
Это важно».
00:16:32
Вопрос в том, как?
00:16:33
И если надзор означает тот пример с джинном, когда
00:16:36
есть один ИИ, который оценивает, был ли другой ИИ хорош или
00:16:39
нет - это превратится в бесконечный регресс.
00:16:42
Но если все основано на происхождении данных, больше
00:16:45
не останется того, чему нельзя дать определение.
00:16:49
Все говорят, что ИИ должен соответствовать человеческим
00:16:52
интересам.
00:16:53
Но что это значит?
00:16:54
Все так запутано.
00:16:55
Я долгое время работал в сфере конфиденциальности.
00:16:59
И помог запустить концепцию конфиденциальности и GDPR
00:17:02
в Европе.
00:17:03
Должен сказать, я не уверен в том, что мы знаем, что
00:17:05
такое конфиденциальность в плане интернета.
00:17:08
Это очень сложная тема.
00:17:09
Джэки: И тут регуляторы скажут: “Мы будем контролировать
00:17:12
вас так”.
00:17:13
Но думаешь ли ты, что политики слишком напуганы, чтобы
00:17:17
бросить вызов технологиям?
00:17:19
Джарон: Это хороший вопрос.
00:17:22
Мне кажется, что мы, представители технической культуры, долго
00:17:25
поступали так.
00:17:27
Мы ходили в конгресс или парламент и запугивали
00:17:31
людей.
00:17:32
Мы говорили: «О, вы, сенаторы и конгрессмены, не разбираетесь
00:17:36
в технологиях.
00:17:37
Вы идиоты.
00:17:38
А вот мы умные.
00:17:41
Вы ничего не знаете».
00:17:42
Понимаете, так было всегда.
00:17:44
Постоянно было: «Не поверите, какой идиот этот сенатор».
00:17:47
Так было многие годы.
00:17:49
И я думаю, мы запугали их до такой степени, что сейчас
00:17:53
это аукается нам самим.
00:17:55
А сейчас абсолютно все в сфере ИИ хотят, чтобы
00:18:00
индустрия контролировалась.
00:18:02
Тут регулирование имеет смысл.
00:18:06
Джэки: Когда потеплеют отношения между технологическими
00:18:10
лидерами и политиками?
00:18:12
Джарон: Ну, не знаю, они уже теплые...
00:18:15
Нэйт: А то слушание Сэма Альтмана.
00:18:17
Это же было слушание, верно?
00:18:21
Временами оно казалось “теплым”, временами не
00:18:23
очень.
00:18:24
И там было такое риторическое «Пожалуйста, контролируйте
00:18:27
нас».
00:18:28
Джарон: Да, да.
00:18:29
Я думаю, мы хотим, чтобы нас регулировали, потому
00:18:31
что многие рассматривают это, как проблему с соц.
00:18:34
сетями, но в тысячу раз хуже.
00:18:36
Мы хотим, чтобы нас контролировали.
00:18:38
Мы не хотим вносить беспорядок в общество.
00:18:40
Наш бизнес зависит от общества.
00:18:47
Звучит неоднозначно.
00:18:49
В технической культуре есть своего рода свободолюбивая
00:18:51
жилка, мол, всякое регулирование должно вызывать сомнения.
00:18:54
Но это явно не так.
00:18:55
Регулирование - это основа, на котором мы можем осуществлять
00:18:58
свободное предпринимательство.
00:18:59
Без этого у нас не будет порядка, благодаря которому
00:19:02
мы функционируем.
00:19:04
Иначе это превратится в выживание наиболее приспособленных,
00:19:07
которое не приведет к...
00:19:09
Это приведет к естественной эволюции.
00:19:12
Но очень медленно.
00:19:14
Рынки быстры и креативны.
00:19:16
Вы ничего не добьетесь без регулирования.
00:19:18
Нэйт: Ты упомянул своего коллегу в области ИИ.
00:19:25
Говорил ли ты с ним о своих опасениях?
00:19:27
Джарон: О, да постоянно!
00:19:29
Я, конечно, не буду говорить за Сэма.
00:19:32
Но мне очень комфортно работать с людьми, с которыми
00:19:36
у меня есть некоторые разногласия.
00:19:38
И знаете, у нас больше согласия, чем вы думаете.
00:19:42
Например, Сэм хочет создать универсальную криптовалюту.
00:19:45
Джэки: Ага, Worldcoin.
00:19:47
Джарон: Да, чтобы вознаграждать людей после того, как ИИ
00:19:50
выполнит всю работу.
00:19:52
Конечно, я такое не одобряю.
00:19:53
Не думаю, что это хорошая идея.
00:19:55
Боюсь, какая-нибудь преступная организация возьмет все
00:19:58
на себя, как бы сильно Сэм ни старался.
00:20:00
Посмотрите на крипту.
00:20:01
Она математически совершенна.
00:20:03
И рядом есть преступники, мошенничество и некомпетентность.
00:20:06
Нэйт: Это же значимо, верно?
00:20:08
Джарон: Все так.
00:20:09
Я убежден, что крупные технологические компании стали очень важными
00:20:13
для общества.
00:20:15
И важно показывать, что в них может существовать
00:20:18
свобода слова, и люди все равно будут покупать их
00:20:21
продукцию и акции, и это не приведет к катастрофе.
00:20:26
Я пытался создать пример подхода, где могу высказывать
00:20:29
мнения, не являющиеся официальной позицией Microsoft.
00:20:32
И все же я продолжаю работать над продуктами Microsoft.
00:20:35
И я горжусь тем, что люди хотят покупать наши товары,
00:20:39
наши акции.
00:20:40
Мне это нравится.
00:20:41
Мне нравятся наши клиенты.
00:20:43
Я люблю работать с ними.
00:20:44
Мне нравится делать все, что может понравиться кому-то
00:20:46
настолько, что он заплатит за это деньги.
00:20:48
Для меня это и есть рыночная экономика.
00:20:51
Мне она нравится.
00:20:52
Я рад быть ее частью.
00:20:53
И я хотел бы убедить своих друзей из других технологических
00:20:57
компаний, что немного свободы слова будет полезно их
00:21:00
бизнесу.
00:21:01
Я думаю, это повысило бы эффективность бизнеса
00:21:06
Google и Meta.
00:21:09
Они известны своей закрытостью.
00:21:11
У них нет спикеров.
00:21:12
Мне кажется, они страдают из-за этого.
00:21:15
Вы можете думать иначе, ведь это крупные и успешные
00:21:18
компании.
00:21:19
Но я думаю, они могли бы добиться большего.
00:21:21
Джэки: Что заставило бы тебя уйти?
00:21:23
Джарон: Я не знаю.
00:21:24
Все может случиться.
00:21:25
Но я не знаю, что и как именно.
00:21:27
Джэки: Но есть ли у тебя какой-то предел?
00:21:32
Джарон: Это должно во многом зависеть от обстоятельств
00:21:38
и компромиссов.
00:21:39
Не думаю, что можно просто провести черту в чем-то
00:21:42
таком.
00:21:43
Это очень личное.
00:21:44
Кстати, в Microsoft есть 4 или 5 человек, которые публично
00:21:48
выступают и высказывают свое мнение.
00:21:50
Я думаю, что это довольно успешная модель.
00:21:54
Она сработала для нас.
00:21:57
Согласен ли я со всем, что происходит в Microsoft?
00:22:00
Конечно, нет.
00:22:01
Послушайте, это настолько обширная тема.
00:22:03
Она такая же большая, как целая страна.
00:22:05
И в ней есть еще куча вещей.
00:22:07
Не нужно быть перфекционистом.
00:22:09
Это еще никому не помогало.
00:22:11
Хотя здесь, в области залива Сан-Франциско, многие люди
00:22:15
пытаются быть такими.
00:22:17
Я просто думаю, что всегда нужно стараться найти баланс.
00:22:21
Но он никогда не бывает идеальным.
00:22:22
Нэйт: Джарон, было очень приятно пообщаться.
00:22:25
Спасибо, что уделили нам время.
00:22:27
Было здорово!
00:22:28
- Джарон: Спасибо, что пригласили!
00:22:29
- Джэки: Спасибо вам!

Описание:

Джарон Ланье - один из утопистов Кремниевой долины, у которого были грандиозные представления об интернете еще до того, как у нас появились ПК, мобильные телефоны и социальные сети. Он был первооткрывателем виртуальной реальности в 80-х, продал несколько компаний для Google, Adobe и Oracle. А сейчас работает в Microsoft. С годами он стал яростным критиком индустрии, которую помогал создавать. Мы привыкли к тому, что интернет такой таинственный. Ведь мы не знаем, откуда там все берется. Но не нужно так думать об ИИ. В сегодняшнем эпизоде «ИИ в реальной жизни» инсайдер Ланье расскажет о тёмной стороне технологий и о том, как это повлияет на будущее ИИ. По вопросам рекламы: evfuture@gmail.com Таймкоды: 00:00 Первые шаги ИИ: Критический взгляд 5:05 Дезинформация и реклама 6:32 Дискуссия о моделях с открытым исходным кодом 12:05 Достоинство данных и компенсация 13:42 Влияние ИИ (чат-ботов) на демократию 16:50 Дипфейки: Проблемы и решения 22:10 Баланс между свободой слова и бизнес-эффективностью Источник: https://www.youtube.com/watch?si=Ohvg84TN_1godb02&v=o8vU9QtcMZw

Медиафайл доступен в форматах

popular icon
Популярные
hd icon
HD видео
audio icon
Только звук
total icon
Все форматы
* — Если видео проигрывается в новой вкладке, перейдите в неё, а затем кликните по видео правой кнопкой мыши и выберите пункт "Сохранить видео как..."
** — Ссылка предназначенная для онлайн воспроизведения в специализированных плеерах

Вопросы о скачивании видео

question iconКак можно скачать видео "Отец VR про ИИ: Будущее, Технологии, Дипфейки и Новая Экономика"?arrow icon

    Сайт http://univideos.ru/ — лучший способ скачать видео или отдельно аудиодорожку, если хочется обойтись без установки программ и расширений.
    Расширение UDL Helper — удобная кнопка, которая органично встраивается на сайты YouTube, Instagram и OK.ru для быстрого скачивания контента.

    Программа UDL Client (для Windows) — самое мощное решение, поддерживающее более 900 сайтов, социальных сетей и видеохостингов, а также любое качество видео, которое доступно в источнике.

    UDL Lite — представляет собой удобный доступ к сайту с мобильного устройства. С его помощью вы можете легко скачивать видео прямо на смартфон.

question iconКакой формат видео "Отец VR про ИИ: Будущее, Технологии, Дипфейки и Новая Экономика" выбрать?arrow icon

    Наилучшее качество имеют форматы FullHD (1080p), 2K (1440p), 4K (2160p) и 8K (4320p). Чем больше разрешение вашего экрана, тем выше должно быть качество видео. Однако следует учесть и другие факторы: скорость скачивания, количество свободного места, а также производительность устройства при воспроизведении.

question iconПочему компьютер зависает при загрузке видео "Отец VR про ИИ: Будущее, Технологии, Дипфейки и Новая Экономика"?arrow icon

    Полностью зависать браузер/компьютер не должен! Если это произошло, просьба сообщить об этом, указав ссылку на видео. Иногда видео нельзя скачать напрямую в подходящем формате, поэтому мы добавили возможность конвертации файла в нужный формат. В отдельных случаях этот процесс может активно использовать ресурсы компьютера.

question iconКак скачать видео "Отец VR про ИИ: Будущее, Технологии, Дипфейки и Новая Экономика" на телефон?arrow icon

    Вы можете скачать видео на свой смартфон с помощью сайта или pwa-приложения UDL Lite. Также есть возможность отправить ссылку на скачивание через QR-код с помощью расширения UDL Helper.

question iconКак скачать аудиодорожку (музыку) в MP3 "Отец VR про ИИ: Будущее, Технологии, Дипфейки и Новая Экономика"?arrow icon

    Самый удобный способ — воспользоваться программой UDL Client, которая поддерживает конвертацию видео в формат MP3. В некоторых случаях MP3 можно скачать и через расширение UDL Helper.

question iconКак сохранить кадр из видео "Отец VR про ИИ: Будущее, Технологии, Дипфейки и Новая Экономика"?arrow icon

    Эта функция доступна в расширении UDL Helper. Убедитесь, что в настройках отмечен пункт «Отображать кнопку сохранения скриншота из видео». В правом нижнем углу плеера левее иконки «Настройки» должна появиться иконка камеры, по нажатию на которую текущий кадр из видео будет сохранён на ваш компьютер в формате JPEG.

question iconКак воспроизвести и скачать потоковое видео?arrow icon

    Для этого понадобится VLC-плеер, скачать его можно бесплатно с официального сайта https://www.videolan.org/vlc/

    Как воспроизвести потоковое видео через VLC-плеер:

    • в форматах видео наведите курсор мыши на "Потоковое видео**";
    • правым кликом выберите "Копировать ссылку";
    • откройте VLC-плеер;
    • в меню выберите Медиа - Открыть URL - Сеть;
    • в поле ввода вставьте скопированную ссылку;
    • нажмите "Воспроизвести".

    Для скачивания потокового видео через VLC-плеер необходимо его конвертировать:

    • скопируйте адрес видео (URL);
    • в пункте “Медиа” проигрывателя VLC выберите “Открыть URL…” и вставьте ссылку на видео в поле ввода;
    • нажмите на стрелочку на кнопке “Воспроизвести” и в списке выберите пункт “Конвертировать”;
    • в строке “Профиль” выберите “Video - H.264 + MP3 (MP4)”;
    • нажмите кнопку “Обзор”, чтобы выбрать папку для сохранения конвертированного видео и нажмите кнопку “Начать”;
    • скорость конвертации зависит от разрешения и продолжительности видео.

    Внимание: данный способ скачивания больше не работает с большинством видеороликов с YouTube.

question iconСколько это всё стоит?arrow icon

    Нисколько. Наши сервисы абсолютно бесплатны для всех пользователей. Здесь нет PRO подписок, нет ограничений на количество или максимальную длину скачиваемого видео.