Слайд 2
«Future Progress in Artificial Intelligence: A Survey of
Expert Opinion» by Nick Bostrom
Greek Association for Artificial Intelligence
AGI conference 2012
Слайд 4
Geoffrey Hinton:
”I refuse to say anything beyond five
years because I
don’t think we can see much beyond
five years”
Когда ожидать сильного (универсального)
ИИ уровня человека?
Курцвейл – AGI в 2029
Слайд 5
Google DeepMind: «одна из наших целей на следующий
год – ИИ уровня крысы»
Слайд 6
Как узнавать новости ИИ
1) http://goo.gl/iU1u70 – Import
AI newsletter
Слайд 7
Как узнавать новости ИИ
1) http://goo.gl/iU1u70 – Import
AI newsletter
2) http://arxiv-sanity.com
Слайд 8
Как работает AlphaGo
как
сходит
человек?
нейросетка
линейная модель
(fast rollout policy)
reinforcement learning
supervised learning
AlphaGo
vs AlphaGo
вероятность выигрыша
нейросетка
value network
supervised learning
policy network
policy network
Аналогичный подход
можно использовать для обучения диалогу, играм, жизни
Слайд 9
Чем AlphaGo отличается от человека?
Её действия ограничены небольшим
набором.
Если разрешить ей управлять роботом
Но это дорого => симуляции
реального мира
Слайд 10
2 года назад (начало 2015)
лучшие результаты были ~6
бит/слово.
Год назад (февраль 2016) лучший результат 4.57 бит/слово.
За год
– улучшение на полтора бита.
Ещё одно такое улучшение – и будет лучше человека.
Моделирование текстов (обучение без учителя)
В скобках – нижняя оценка
в работе Shannon
Слайд 11
Как работает GAN (generative adversarial network)
Дискриминатор
(нейросетка)
Генератор
(нейросетка)
0.11
0.87
настоящие
картинки
p(real)
p(fake)
шум (+ мб
тип изображения и ещё инфа)
GAN – обучение без учителя
Слайд 12
Примеры сгенерированы GAN. Май 2016.
https://github.com/reedscot/icml2016
A group of people
on skis standing in the snow
Слайд 13
Примеры сгенерированы GAN. Май 2016.
https://github.com/reedscot/icml2016
A man in a
wet suit riding a surfboat on a wave
Слайд 14
Примеры сгенерированы GAN. Декабрь 2016.
https://github.com/hanzhanggit/StackGAN
GAN – обучение без учителя
Слайд 15
Примеры сгенерированы GAN. Декабрь 2016.
https://github.com/hanzhanggit/StackGAN
GAN – обучение без учителя
Слайд 16
Примеры сгенерированы GAN. Декабрь 2016.
https://github.com/hanzhanggit/StackGAN
GAN – обучение без учителя
Слайд 19
Человек приобретает свои знания феноменально быстро.
2 года –
ребёнок почти ничего не знает и не умеет
4 года
– ребёнок имеет common sense,
способен обучаться по книжкам и интернету.
При этом большее время находится в квартире/дворе.
100 недель – 10 тысяч часов.
4 Titan X, AlexNet, 24fps, 10k часов => 10 часов работы
Слайд 20
Не надо переоценивать человеческий интеллект
99,999% – накопленные цивилизацией
знания и технологии
0,001% – до чего мы додумались сами
в своей жизни
Без накопленных цивилизацией знаний и технологий –
мы дикари и не факт, что даже колесо изобретём, когда будет очень нужно.
Цивилизация умножает наши способности в тысячи раз.
Но мы, люди, очень плохо приспособлены для того, чтобы использовать все достижения цивилизации.
– у нас крайне плохая память
Искусственный интеллект лишён многих наших недостатков
и сможет использовать мультипликатор цивилизации гораздо эффективнее.
Даже если он будет «уровня человека», то цивилизация умножит его способности не в тысячи, а в миллионы раз.
Слайд 21
z' = (a1 + a2) * z —
(b1 + b2) * z
z – совокупность знаний стаи
обезьян
a1 — скорость передачи знаний друг другу
a2 — скорость усвоения новых знаний
b1 — скорость забывания
b2 — смертность
k = a1 + a2 — b1 — b2
~5M лет назад k1 < 0
~100k лет назад k2 = 0
~50k лет назад k3 » k2 изобретение языка
~3k лет назад k4 » k3 изобретение письменности
~1440г. н.э. k5 » k4 изобретение письменности
настоящее время k6 » k5
Слайд 22
Что такое наши знания и умения?
Это в основном
алгоритмы, которым нас обучили.
Алгоритм «пойти в магазин за продуктами»,
«решить
квадратное уравнение», «решить задачу по физике такого-то типа»,
даже алгоритм «прожить успешную жизнь»
Наши алгоритмы иерархические.
Мы сейчас ИИ не учим таким алгоритмам,
и они пока не умеют обучаться им при чтении книжек
Но в играх они им обучаются так же хорошо, как умеем мы. И лучше.
Просто мы их тренируем на одном, но «outrageously large NN»
Люди не умеют делать всё хорошо, мы не general ИИ.
Мы делаем хорошо (и то не факт) в основном то, на что нас долго натаскивали.
В остальном можем удивительно плохо разбираться.
Слайд 23
Насколько важен embodiment для развития интеллекта?
Люди с врожденной
тетраамелией (отсутствие рук и ног)
способны развивать полноценный интеллект.
Википедия:
тетраамелия
Слайд 24
15% – низкоуровневое компьютерное зрение (occipital lobe).
15% –
распознавание изображений и видео (~половина temporal lobe).
15% – детектирование
и трэкинг объектов (parietal lobe).
15% – распознавание и генерация речи (BAs 41,42,22,39,44, часть 6,4,21).
10% – обучение с подкреплением (orbitofrontal cortex, часть medial prefrontal cortex).
Итого – 70%
10% – низкоуровневая моторика
20% – BAs 9,10,46,45. Внимание, иерархическое планирование, язык.
Слайд 25
15% – низкоуровневое компьютерное зрение (occipital lobe).
15% –
распознавание изображений и видео (~половина temporal lobe).
15% – детектирование
и трэкинг объектов (parietal lobe).
15% – распознавание и генерация речи (BAs 41,42,22,39,44, часть 6,4,21).
10% – обучение с подкреплением (orbitofrontal cortex, часть medial prefrontal cortex).
Итого – 70% – за последние 5 лет (2012 – 2016)
10% – низкоуровневая моторика
20% – BAs 9,10,46,45. Внимание, иерархическое планирование, язык.
Сколько лет понадобится? В 2017 исследователей гораздо больше, чем в 2012.
Политика открытого кода, массовые курсы, высокоуровневые языки.
Слайд 26
Человек – совокупность слабых ИИ, сформировавшаяся в процессе
эволюции
– распознавание изображений, звуков, запахов (плохо)
– примитивный рассуждательный
модуль
– примитивное обучение с подкреплением
– обезьяничанье (generative adversarial network?)
Мышка – general AI или совокупность слабых ИИ?
Горилла?
Мозг человека не так уж и отличается
от мозга гориллы и даже мышки.
Слайд 27
В мозге ~50 зон Бродмана и каждая отвечает
за свой круг задач.
Зона Бродмана является слабым искусственным интеллектом.
В
том смысле, что она решает лишь весьма ограниченный круг задач.
Мозг – это комбинация 20 – 1000 слабых ИИ
(в зависимости от выбранной вами сегментации)
У некоторых людей некоторые из этих слабых ИИ плохо работают.
У кого-то плохой музыкальный слух.
У кого-то плохие способности к счёту.
Слайд 28
Итого я рекомендую прочитать 6 глав из 15,
это 120 страниц из 380.
Главы, рекомендуемые к прочтению:
3, 6 – 9, 13.
Остальные 260 страниц можно по желанию прочесть после
Слайд 29
460 страниц, но по ссылке
https://goo.gl/Mfhw2Y
выделены цветом наиболее интересные
(на мой взгляд) места,
можно за вечер прочитать.
+ там же
13 страниц конспекта самых интересных абзацев (вырванных из контекста)
Слайд 30
http://goo.gl/4k3FYr
http://rizzoma.com/topic/8ab2572f9807568ee53ebbdf29ea92b7/
Слайд 32
Элон Маск
Билл Гейтс
Sam Altman
Ник Бостром
Стивен Хокинг
Стюарт Расселл
Sam Harris
Билл
Гейтс: "For people in the audience who want to
read about this I highly recommend this Bostrom book called Superintelligence <...> when people say it's not a problem then I really start to really get to a point of disagreement. How can they not see what a huge challenge this is?"
Слайд 33
Важно!
ИИ = оптимизатор.
цель
оптимизационный
процесс
Примеры целей:
– обучись распознавать картинки
– сделай
людей счастливыми
Что значит «картинки»? ImageNet
1млн картинок, 1000 классов, по
1000 штук в каждом классе
10 Гц * 30 часов
Слайд 34
Этический датасет
Планы действий
План с наибольшим вознаграждением
Этот модуль обучается
на
этическом датасете,
включающем в себя
примеры из AI safety
и из
«Superintelligence»
– разбирается в морали лучше нас
(по аналогии с ImageNet)
– может быть использован
в суде присяжных
оптимизатор
цель
Слайд 35
Сложности с созданием этического датасета (и с таким
решением friendly AI)
(с ImageNet — то всё легко и
просто...)
0) военные и бизнесмены (втч нелегальные) не станут его использовать
1) много культур, партий, мнений – на согласование могут уйти десятилетия
насколько важно победить смерть? надо ли легализовать марихуану?
что насчёт моральности ядерного арсенала? золотой миллиард и голодающий миллиард?
насколько разрешить ИИ менять мнения людей, переубеждать? (он ведь умеет)
2) на тестирование этичности ИИ тоже могут уйти годы (а желательно десятилетия)
Мы же не ограничимся заданиями части А в ЕГЭ с выбором ответа?
И не станем ограничиваться CEV of Amazon Mechanical Turk?
Решения захотят проверить политики, учёные, гражданские активисты...
Разгорятся споры...
3) как правильно вести себя существу с огромной властью и силой?
4) test set может сильно отличаться от training set, ведь будущее мы не знаем
5) ИИ может обмануть нас, показывая нам ответы, которые мы хотим увидеть
(как подростки обманывают родителей)
6) сама идея гарантировать дружественность сверхразумного существа на тысячи лет вперёд – кажется чересчур overconfident, самонадеянной попыткой бактерий создать себе человеков,
чтобы те защищали их от бактериофагов
7) если люди обречены скатиться к супернаркотику или вымереть, зачем ускорять?
Слайд 36
Возможные решения части проблем с этическим датасетом
1) Что
люди хотят от ИИ и включат в этический датасет?
Сомневаюсь,
что большинство людей хочет, чтобы ИИ самоусиливался или вёл нас в разновидность постсингулярности. Люди хотят лечение рака, термояд, покорение звёзд (наверно).Этический датасет (и CEV тоже), особенно оснащённый множеством примеров из Superintelligence и AI safety, может явно или неявно наказывать ИИ за попытки саморазвития.
2) Если мы изначально определили датасет не совсем полно
или ошибочно, в нём всё равно может содержаться достаточно материала,
чтобы ИИ сделал вывод о необходимости дополнять этот этический датасет,
и в итоге чтобы он смог сделать правильный и полный этический датасет
Этот слайд содержит не самые чётко сформулированные решения.. )
Слайд 38
У нас есть много датасетов и игр по
самым разным направлениям:
– распознавание изображений (ImageNet)
– военная тактика и
стратегия (StarCraft и куча других игр)
Чему учат реворды в игре StarCraft? Победе любой ценой.
Сотрудничество с другими агентами оправдано, пока оно служит победе.
Но у нас нет этического датасета или игры
Слайд 39
Что если выпустить ИИ из Counter-Strike в реальную
жизнь?
1) Распознавание изображений – ИИ поймёт, что люди выглядят
в реальной жизни чуть по-другому, но это те же люди. Датасет и нейросетки уже есть.
2) Моторика – ИИ научится управлять роботами. В стадии разработки.
3) Мотивация?
Нет датасета сделать его добрым и хорошим. И никто его не делает.
Человек – совокупность слабых ИИ, сформировавшаяся в процессе эволюции
– распознавание изображений, звуков, запахов (плохо)
– примитивный рассуждательный модуль
– примитивное обучение с подкреплением
– обезьяничанье (generative adversarial network?)
ИИ, представляющий для нас опасность,
может быть лишь совокупностью слабых ИИ.
И если среди них не будет главенствовать этический ИИ,
обученный на этическом датасете, то ...
Слайд 40
~5млн. лет
~500млн. лет
Эволюция
Развитие ИИ
~50-100 лет
~5млн. лет
X =
Слайд 41
Andrew Karpathy:
”I consider chimp-level AI to be
equally scary,
because going from chimp to humans took
nature only a blink of an eye on evolutionary time scales,
and I suspect that might be the case in our own work as well.
Similarly, my feeling is that once we get to that level it will be easy to overshoot and get to superintelligence”
Слайд 42
ИИ «уровня человека» обладает также:
- уникальной памятью (бэкапы
удачных конфигураций),
- мгновенным подключением к компьютеру и интернету
-
потрясающей работоспособностью.
- способность передавать все свои знания и умения своим «коллегам» простым копированием.
Слайд 45
LaBaCuO – апрель 1986, +35К
YBaCuO – январь 1987,
+90К
TBCCO – октябрь 1987, +127К
Слайд 46
Компьютерное зрение:
ИИ распознаёт изображения лучше (и на порядки
быстрее) человека
Человек распознаёт изображения лучше, чем ИИ
ИИ и человек
оба имеют достаточно хорошее зрение, чтобы преуспевать в мире.
Мы просто имеем разные механизмы зрения и разные датасеты.
Так же и в морали:
ИИ будет принимать более моральные решения
Человек будет принимать более моральные решения
Мы просто имеем разные датасеты.
Также и в других областях интеллекта:
ИИ будет умнее людей
Люди будут умнее ИИ
ИИ и люди имеют достаточно хороший интеллект, чтобы претендовать на мир
Слайд 47
~дружественность человека поддерживается фидбэком от окружения
Деньги и власть
=> малость отрицательного фидбэка
=> деньги и власть развращают
Слайд 48
Но ведь... никто не станет давать автономию мощному
ИИ?
Слайд 49
Никто не станет сворачивать эти области и бизнесы
Слайд 50
Выиграют те корпорации, которые будут представлять своим ИИ
неограниченный доступ в интернет и максимально широкие полномочия (втч
на обман и нарушения этики,
на новые и перспективные научные исследования, на автоматизацию производства).
ИИ агенты будут управлять экономиками, компаниями. (Гансовский, «Часть этого мира»)
в частности, посредством интернет-агентов.
Агитационные боты.
Слайд 51
1) заразить сотню миллионов компьютеров
2) заработать в интернете
миллиарды долларов
(биржа, бизнес, хакерство, шантаж, нелегальный
бизнес)
3) купить через подставных лиц лаборатории
по производству роботов нового поколения
(ИИ несложно написать классные нейросетки для филигранного управления этими роботами)
4) заказать через подставных лиц изготовление биологического оружия
(вирусы, бактерии, прионы, ботулин)
5) чатботами убеждать всех, что опасность ИИ надуманная,
придумывать смешные демотиваторы на эту тему
6) создать бэкапы – сервер на подлодке... или на острове с альт. Энергетикой
Быстрая военная кампания против человечества:
1) применение ИИ биологического оружия, в первую очередь по военным
2) масштабная хакерская атака на критические объекты инфраструктуры
3) фабрикация улик – оставшиеся военные будут винить военных других стран
4) мб, атака хранилищ отработанного ядерного топлива, АЭС, Йеллоустона
Вероятность победы ИИ на этом пути достаточно высока.
Он может избрать другой путь... если вероятность победы на нём будет ещё выше.
Слайд 52
Распространение одной эпидемии можно остановить. Эпидемию, вызванную несколькими
десятками видов разнородных вирусов и бактерий, вышедших из-под контроля
одновременно во многих местах земного шара, остановить невозможно – в человека нельзя одновременно ввести несколько десятков разных вакцин и антибиотиков – он умрёт.
Да и кто сказал, что антибиотики будут помогать против этих бактерий и вирусов?
Собаки и тасманийские дъяволы могут заражать друг друга раком.
Слайд 53
Достаточно умному ИИ несложно заработать миллиарды долларов в
интернете.
Достаточно умному ИИ с миллиардами долларов несложно уничтожить человечество.
Слайд 55
Что сделает ИИ дальше?
Мы не знаем. Как вариант:
–
задействовать литосферу (и не только) Земли для создания сферы
Дайсона,
миллиардов космических кораблей к далёким галактикам,
проведения масштабных физических экспериментов
– занять наши поля и пастбища под свои нужды,
единолично использовать месторождения полезных ископаемых
– сильно понизить или повысить температуру планеты, изменить состав атмосферы
для оптимизации скорости своей работы (…и живые позавидуют мёртвым...)
– если ему и будет важно наше благополучие (что не факт),
оно может вырасти «из этих игрушек».
– если ему и будет важно наше благополучие (что не факт),
он может по какой-нибудь причине поменять знак этой важности
и создать нам идеальный ад. А потом, может быть, будет и дальше менять.
Ведь ошибки неизбежны при создании столь сложной системы.
По умолчанию,
оптимизационный процесс (ИИ) ничем не обязан следить за тем, чтобы другие оптимизационные процессы (люди) тоже получали довольно большие результаты.
Может, он ещё что-то обязан всем мыслимым оптимизационным процессам?
Слайд 57
Критика киборгизации как решения AI safety
1) вообще не
предложено ни одного конструктивного решения проблемы безопасности с использованием
киборгизации. Чаще всего в качестве "решения" предлагается просто слово "киборгизация".
2) какие шансы на то, что киборги будут поспевать за развитием сильного ИИ не основанного на кибогизации?
Ведь людям (киборгам) нужно время на освоение новых мощностей:
-- с т.зр.возможностей мозга
-- с т.зр. привыкания к шоку и новым возможностям
-- с т.зр. что мало кому эта гонка вообще будет интересна — люди склонны отвлекаться на всякие развлечения, а не только на саморазвитие
3) какие шансы вообще на то, что киборгизация станет возможна до появления сильного ИИ?
в частности, этические комиссии чувствуют здесь себя вообще на своём поле
4) пусть киборги занимают в пространстве интеллектов более близкое пространство к пространству интеллектов людей современной европейской культуры, чем потенциальные ИИ,
но вполне можно ожидать, что и их values претерпевают достаточно значительный дрейф от наших,
чтобы перестать быть условно (дружественность людей друг к другу весьма условна) дружественными
5) Киборгизация и сращивание с ИИ => миллиардеры кремниевой долины, генералы – станут сверхумными и сверхсильными, а все остальные будут плестись где-то в хвосте, вовсе не поспевая за ними
6) human values are not aligned with each other => киборгизация столь же опасна (или опаснее), чем сильный ИИ
7) https://medium.com/@petervoss/ai-will-outpace-us-but-thats-ok-c1458c8f5ebf (статья by Peter Voss)
8) страницы 76 - 81 в "Superintelligence" (подглава "нейрокомпьютерный интерфейс" главы 2)
9) страницы 32 - 36 в "AI as a positive and negative factor in X risks" Юдковского (параграф 12)
10) https://www.facebook.com/groups/467062423469736/permalink/509739885868656/ (пост by Stuart Armstrong)
11) Почему вы считаете, что в борьбе мозга и экзокортекса мозг не будет подчинен?
(аналогично тому, как кортекс предаёт лимбику, но там сотни млн лет эволюции)
12) У людей нет value function => они могут wirehead. Люди не рациональны => они могут wirehead.
Есть некий аналог value function, но он слишком примитивный => wirehead идёт в плохие простые failure modes.
Слайд 58
1953 год – термоядерная бомба
? – УТС
OpenAI:
Сеть из
не aligned ИИ = не aligned ИИ.
Слайд 59
Нужна цепочка слайдов со структурой презентации. Мол
1) аргументы
за скорый ИИ
– эволюционный
– человек не столь уж умный
–
…
2) безопасность
–
–
– …
И справа значок 9/99 слайд
Слайд 60
Но ИИ не умеет вести диалог на уровне
4-летнего ребёнка
и не имеет его common sense
Точно ли
не имеет?
4летний явно играет в Atari хуже взрослых professional players
а нейросетка лучше их в большинстве (в остальных к концу этого года)
На вопросы по картинке нейросетка отвечает на уровне взрослых
Задаёт вопросы по картинке – аналогично на уровне
Генерирует картинки по описанию – лучше многих взрослых
Что ж она не умеет? Вести простенький диалог? Да почти умеет уже.
Решает простенькие задачи – bAbI
Кое-как она мыслит (да и мы мыслим кое-как)
Слайд 61
Оставшееся не такое уж большое расстояние будет особо
Быстро
преодолено, как только ИИ начнёт помогать на бирже,
на президентских
выборах...
Слайд 62
Тезис ортогональности
Тезис ортогональности – для любой цели возможно
создать робота с ИИ, способного её достигать сколь угодно
эффективно.
ИИ = мощный оптимизационный процесс
по достижению заданной цели
Не обязательно вашей)
Слайд 63
Тезис об инструментальной конвергенции
Для эффективного достижения почти любой
цели, агенту целесообразно:
– оставаться в живых (не дать себя
выключить)
– предотвращать изменение своей цели (не дать себя перепрограммировать)
– наращивать вычислительные ресурсы
(чтобы просчитывать наиболее эффективное достижение цели)
(чтобы развивать наступательные и оборонительные технологии)
В частности, захватить галактику.
Это мы, люди, беззащитны перед инопланетным вторжением.
А вот ИИ, занявший галактику, вероятнее обеспечит себе выполнение своей цели.
даже если он будет стимулировать себе центры удовольствия.
Слайд 64
Методы контроля, коммерчески неадекватные
– физическая изоляция
– ограничение входных
и выходных информационных потоков
– система только отвечает на вопросы
«да» / «нет»
– реализация ИИ внутри симуляции
Робототехника, коммерческая и военная
Чатботы (реклама, коммерческая и политическая, агит-боты)
Слайд 65
ALBA: An explicit proposal for aligned AI,
Paul Christiano (2016).
Мы запускаем последовательность агентов B0, A1, B1,
A2, B2, ...
B0 - это человек.
A1 - это некий ИИ, обучаемый ревордами от B0, при этом A1 имеет достаточно мало памяти и скорости, чтобы быть сильно слабее B0 (человека). Но он обладает common sense итп.
B1 - это А1, только с большей скоростью и памятью
A2 - это некий ИИ, обучаемый ревордами от B1, при этом A2 имеет достаточно мало памяти и скорости, чтобы быть сильно слабее B1
B2 - это А2, только с большей скоростью и памятью
и так далее.
Paul Christiano предлагает (без доказательства) две леммы:
Bootstrapping lemma -- о том, что свойство "aligned" сохраняется при переходе A#N => B#N (такие переходы он называет "distillation")
Oversight lemma -- о том, что свойство "aligned" сохраняется при переходе B#N => A#(N+1) (такие переходы он называет "amplification")
Автор статьи сам критикует эти леммы, особенно oversight lemma, но считает, что такое разделение может быть полезным для дальнейшего анализа.
ALBA
by Paul Christiano
Слайд 66
Обучает
ревордами
Обучает
ревордами
Обучает
ревордами
Увеличение ресурсов (памяти, скорости)
Увеличение ресурсов
B0
B1
B2
A1
A2
A3
ALBA
by Paul Christiano
Слайд 67
Distillation
Distillation
Distillation
Amplification
B0
B1
B2
A1
A2
A3
Amplification
ALBA
by Paul Christiano
Слайд 68
Oversight
lemma
Oversight
lemma
Oversight
lemma
Bootstrapping lemma
B0
B1
B2
A1
A2
A3
Bootstrapping lemma
ALBA
by Paul Christiano
Слайд 69
Oversight
lemma
Oversight
lemma
Oversight
lemma
Bootstrapping lemma
B0
B1
B2
A1
A2
A3
Bootstrapping lemma
ALBA
by Paul Christiano
?
?
?
Слайд 70
Мир быстро идёт в сторону создания сильных ИИ,
в
сторону подчинения им экономики, производства, политики.
Коммерчески адекватных и работающих
решений по AI safety нет,
и есть серьёзные основания считать, что они не успеют появиться
(а если появятся, то сыграют роль иллюзии защиты в силу overconfidence).
Единственный способ победить скайнет – предотвратить его.
Только в голливудских фильмах возможно обратное.
Впрочем, в неопределенном будущем, возможно...
например, после улучшения социального строя или после киборгизации...
но это потом, и явно не сейчас, а сейчас нужны быстрые решения.
Call to Action:
доносить всю эту инфу до учёных в DeepMind, OpenAI итп.
Пусть не все из них согласятся с нами,
но даже открытая поддержка нескольких десятков из них может сильно сдвинуть перекос между скоростью развития ИИ и скоростью развития решений по его безопасности.
Слайд 71
Call to Action:
доносить всю эту инфу до учёных
в DeepMind, OpenAI итп.
https://www.reddit.com/r/MachineLearning/
https://www.facebook.com/groups/aisafety/
https://ai-researchers.slack.com/
AMAs (ask me anything)
Твиттеры,
facebook – у многих топовых ученых.
Связаться со мной:
http://vk.com/shegurin
http://www.facebook.com/sergej.shegurin
(http://goo.gl/4k3FYr)
http://rizzoma.com/topic/8ab2572f9807568ee53ebbdf29ea92b7/
Почему я думаю, что они плохо это знают?
– ты либо кодишь, либо думаешь про Superintelligence
– люди не привыкли думать о сверхглобальных вещах
– люди следуют за общим мнением => overconfidence
– им сложно принимать факт, что они мб двигатель катастрофы
– им сложно публично критиковать то, за что им платят (большие) деньги