КАК ЗАСТАВИТЬ ЛЕНИВЫЕ НЕЙРОННЫЕ СЕТИ ПРОИЗВОДИТЬ НАРКОТИКИ?

Необходимы ли лекарства? Если представить себе старые времена, то раньше не было лекарств. Можно ли сделать вывод, что люди болели меньше? Я уже вижу комментарии, что "да", но с другой стороны, давайте проанализируем наше современное общество, например, детей. Было ли здоровье когда-нибудь хуже, чем сейчас, несмотря на то, что у нас так много этих лекарств? Отсюда вопрос: как вы думаете, нужны ли лекарства?


С другой стороны, я вовсе не пытаюсь сказать, что их нет, но процесс открытия лекарств довольно волшебный. Несмотря на то, что ученые занимаются им, довольно часто (не все из них признаются в этом прямо) они не совсем знают, как это лучше сделать. Это не потому, что они не хотят понять, как ученые, они хотят - просто наш мир действительно очень сложен.
Во всяком случае, по крайней мере, в книге "Античность", среди прочего, о медиках говорится, что довольно много величайших открытий произошло случайно и не обязательно в лаборатории. В то же время, соображение, что мы открываем только случайно, работает. Это то, что мы не можем скрыть, но было бы неплохо иметь некоторые инструменты, ключ к более контролируемому обнаружению лекарств, которые могут быть полезны.


Именно об этом мы сегодня и поговорим. Есть ли вероятность того, что машинное обучение поможет этому процессу, хотя вся эта отрасль очень сложна - понимание биологии, химии и всех этих взаимосвязей, которые происходят между ними, и многих других вещей, о которых часто вообще не упоминают в школе? В настоящее время на рынке есть некоторые лекарства, которые оказались достаточно стабильными, но до сих пор не до конца понятно, почему они работают. Это интересное состояние, в котором мы находимся. Есть ли шанс, что машинное обучение может помочь в этом?

Гость этого интервью - Станислав Ястржебски, который, помимо прочего, теперь более плотно присоединился к стартапу Molecule.one. Его работа будет заключаться в поддержке процессов с использованием современных инструментов. У него есть некоторые мысли о том, что некоторые изменения могут произойти гораздо быстрее, чем может показаться.


Трудно определить, что означают эти изменения, поскольку они могут быть определены по-разному, но вы узнаете ответ на этот вопрос к концу беседы. Я приглашаю вас прочитать всю беседу, чтобы найти ответы. Были также очень интересные дискуссии на самые разные темы: что значит руководить проектами НИОКР? Как они справляются с рисками, которые в этом случае довольно высоки? Какие существуют инструменты, чтобы избежать попадания в так называемые "черные дыры"? Прежде чем мы начнем, небольшое объявление. Есть три онлайн-курса, которые я буду вести осенью 2020 года. Первый - "Практическое введение в Python для ML", который стартует 14 сентября.

Второй ключевой курс - "Практическое машинное обучение с нуля" - стартует 5 октября.


Третий курс - "Обработка естественного языка NLP" - стартует 28 сентября. Если вы хотите начать использовать машинное обучение на практике для передачи отслеживаемой стоимости, то вам стоит пройти этот курс, так как, вероятно, трудно найти более простой способ понять его.

Владимир:
Привет, Сташек. Представься: как тебя зовут, чем ты занимаешься и где живешь.
Станислав:
Здравствуйте. Меня зовут Сташек Ястрженбский. Я нахожусь в таком переходном периоде. В настоящее время я являюсь постдоком в Нью-Йоркском университете под руководством Кюнгхюна Чо и Кшиштофа Гераса. Сначала я создавал команду машинного обучения в Molecule.one, затем, перейдя на пост-док, я перешел на роль советника и консультирую по науке. Но это переходный период, пост-док подходит к концу, и через месяц я буду работать в Варшаве на полную ставку в Molecule.one и Ягеллонском университете.
Владимир:
Мы будем рады видеть вас здесь. Я думаю, что после этого подкаста еще больше людей захотят встретиться с вами лично.


Скажите, что интересного вы прочитали в последнее время? Почему это стоит прочитать?
Станислав:
Недавно я прочитал подряд четыре книги Айзека Азимова. Он является классиком научной фантастики, и меня очень увлекло это чтение. Это серия "Робот". Более известна, я думаю, его серия "Основание", которая является прелюдией к этой. Что так хорошо известно о серии "Роботы", так это, конечно, три закона роботов.

Первый закон гласит, что робот не может никаким действием или поступком причинить вред человеку, но очень интересно, что интерпретация этого закона уже не очевидна. Что, например, если робот говорит что-то, что заставляет человека грустить, даже если это правда?


Все книги играют с этой концепцией о том, как трудно сделать робота действительно безопасным. Что мне кажется особенно интересным, так это то, что эти темы продолжают оставаться очень актуальными в ежедневных исследованиях нейронных сетей.


Мы по-прежнему не знаем, как сделать роботов безопасными. На данный момент существует множество различных идей, но ни одна из них не находит признания. Видно, что Азимов уже 50 лет назад хорошо предвидел, с какими проблемами мы столкнемся сегодня.
Владимир:
Есть фильм под названием "Я, робот" 2004 года. - Это голливудский фильм, поэтому там есть всевозможные вещи, которые вы можете спокойно пропустить, но там также были показаны концептуальные дилеммы, и его стоит посмотреть и поразмышлять, потому что там действительно есть всевозможные вызовы, и эти вызовы становятся все менее и менее футуристическими, а больше относятся к нашей реальности, или будут относиться через некоторое время.
Станислав:
Верно, очень крутой фильм.
Владимир:
На чем основана ваша работа? Вы уже кое-что сделали, вы продолжаете работать в этом районе, у вас есть какие-то планы, так поделитесь, куда направлена ваша деятельность, эксперименты. Чего вы хотите достичь?
Станислав:
Мне кажется, что одну такую тему, проявившуюся в моих исследованиях, можно подытожить утверждением, что нейронные сети ленивы. Уже на пост-доке (по крайней мере, оглядываясь назад, потому что в начале это определенно не было очевидно) все эти работы более или менее вдохновлены этим наблюдением.



Что значит, что нейронные сети ленивы? Существует один такой эксперимент с нейронными сетями, который, на мой взгляд, хорошо иллюстрирует ситуацию, даже если она немного искусственная или непрактичная. Если мы обучим типичную конволюционную сеть (с которой началась новая революция глубокого обучения) на типичном эталоне распознавания изображений, который называется CIFAR-10, то нейронная сеть (по крайней мере, в начале, а также в значительной степени в конце) будет классифицировать, представляет ли данное изображение аэроплан, на основе того, находится ли он на синем фоне.


То есть, она использовала самые простые признаки и, таким образом, можно сказать, что она ленива. Она учится тому, что позволяет ей выполнить задачу самым простым способом. Конечно, это не звучит как проблема, но, к сожалению, это проблема, если таким образом она не учится тому, что нас волнует в конкретной задаче, которую мы решаем (деловой или научной). Здесь возникает очень интересное противоречие: с одной стороны, хорошо, что она учится простым вещам, но с другой стороны, иногда это является проблемой. Во время постдока я работал над несколькими проектами: два скорее теоретические, а третий более практический, тогда я могу рассказать о более практическом. Группа Кшиштофа Гераса в основном занимается обнаружением рака молочной железы на основе маммограмм или других модальностей. Нейронные сети ленивы, но в то же время те же самые нейронные сети на этой задаче обнаружения рака по изображениям маммограммы достигают результатов, аналогичных или близких к результатам радиологов.


Мы изучали это, я почти ничего не делал, большую часть работы выполнили отличные аспиранты. Мы анализировали пересечение этих двух задач. По какому принципу нейронная сеть, которая обучается простой сети, может хорошо решать задачу, которая требует от радиолога столь долгого обучения, потому что это медицинская школа, а затем несколько лет специализации по радиологии. Одно из наблюдений заключается в том, что нейронные сети блестяще разработаны для обучения одному типу простых характеристик: это такие очень маленькие, текстурные детали. Например, нейронная сеть скажет, что это слон, потому что у него слоновья кожа, или скажет, что это собака, потому что обнаружит, что у нее шерсть, как у собаки. Именно эти детали удаляет, например, сжатие *jpg. Если мы сохраним фотографию в формате *jpg, который имеет низкое разрешение, то этих деталей не будет, фотография будет более размытой. Нейронные сети отлично используют эти особенности. Они способны выжать как лимон из всего.


Конечно, это продолжающееся исследование, поэтому у нас есть несколько рабочих документов, и мы сейчас работаем над более длинной версией, так что, возможно, здесь что-то еще изменится.


Что мы обнаружили в наших исследованиях, или, по крайней мере, кажется верным на данный момент, так это то, что это очень помогает в обнаружении рака молочной железы, потому что на маммограммах эти мелкие особенности являются одним из ключевых признаков того, что поражение в молочной железе на самом деле является раком. Удаление этих особенностей, например, путем легкого размытия изображения (как это делает *jpg) или легкого размытия маммограммы, сильно ухудшает работу нейронной сети.
Владимир:
Это очень интересная тема. Как вы сказали, нейронные сети ленивы, что делает их немного похожими на людей. Кстати, хочу напомнить вам о конференции, которую мне довелось организовывать в 2018 году, где Мэтью Опала в своей презентации привел множество примеров, в том числе связанных с компьютерным зрением, когда, например, нужно было распознать спортивную обувь. Сеть научилась не столько тому, что она может отличить спортивную обувь, сколько тому, что если есть просто трава, то это, скорее всего, будет спортивная обувь. Когда кто-то стоял на траве в туфлях на шпильках, она также распознала это как спортивную обувь. Это пример того, как нейронные сети используют короткие пути.


Давайте поговорим о продукте, который будет разработан в рамках Molecule.one, но сначала, возможно, немного контекста. Что это за компания и что она пытается сделать?
Станислав:
Об этом можно рассказывать на разных уровнях детализации. Позвольте мне начать с самого высокого, а именно: что такое процесс открытия лекарств? Молекула.1 - это один из строительных блоков в этом очень долгом процессе, который в конце дает нам, например, аспирин. Необходимо сказать несколько слов об этом процессе.


Прежде всего, это очень долгий процесс и, кроме того, очень дорогой. Открытие одного лекарства может стоить 1 миллиард долларов, занять более пяти лет и иметь очень много этапов. В таком типичном процессе открытия лекарства вы начинаете с предложения множества структур или химических соединений, одним из которых, как мы надеемся, будет тот самый аспирин, который действительно работает. Вы можете представить себе такую воронку, которая начинается с очень большого количества соединений, мы можем просеять миллионы соединений, и в конце эта воронка заканчивается одним соединением.


Где находится Молекула.1 в этой воронке? Молекула.1 находится в самом начале. Если химик хочет проверить 10 000 различных химических структур, просто придумать, что он хочет проверить химическую структуру, явно недостаточно. Он должен сделать это в лаборатории и действительно иметь пробирку с конкретным веществом, и именно это делает Molecule.one.


Химик приходит к нам и говорит, что он хочет сделать, а мы говорим ему, как это сделать, то есть даем ему своего рода рецепт химических соединений. Это один из первых шагов во всем процессе открытия лекарств или поиска лекарств. Одна из таких важных причин, почему этот процесс длится долго, связана с забавным наблюдением - подобно тому, как у нас есть закон Мура, согласно которому вычислительные мощности со временем становятся для нас все дешевле, в процессе открытия лекарств мы имеем обратное. Если посмотреть на перспективу последних 50 лет, то каждый год открытие одного химического соединения, которое является лекарством, обходится все дороже и дороже.
Владимир:
По мере того как вы рассказываете эту историю, сразу возникает еще несколько вопросов, но я, пожалуй, начну с конца. Почему все так? Почему все дорожает? В чем причина?
Станислав:
Есть несколько причин, но если бы мне пришлось назвать главную, то она заключается в том, что мы плохо понимаем биологию. Возможно, в каком-то смысле мы исчерпали то, что понимаем. Это один из выводов. Если бы мы понимали биологию более детально, этот процесс, несомненно, был бы значительно короче, потому что было бы меньше "ошибочных" химических соединений.


Лучше всего это иллюстрирует тот факт, что механизм действия химических соединений, которые мы используем каждый день, таких как ибупрофен, например, до сих пор не совсем понятен, хотя их можно купить в аптеке. Вот один из ответов. Второй ответ заключается в том, что есть и другие элементы процесса, которые сильно замедляют его. В частности, один из них заключается в том, что создавать химические соединения в виде структур в лаборатории просто сложно. Это не так, как если бы химики могли думать о том, какую структуру они хотят добавить, любые атомы в любом расположении.


Напротив, им приходится придерживаться вполне конкретных правил и соединений, которые можно легко изготовить. Это происходит потому, что, несмотря на то, насколько велики были открытия в органической химии, синтезировать или провести реакцию довольно сложно и работает она довольно нестабильно - иногда получается, а иногда нет. Это один из тех элементов, которые сильно замедляют процесс.


Что пытается решить Molekule.one? Мы хотим повысить эффективность того, насколько мы можем полагаться на химические реакции, и таким образом дать возможность химикам попробовать все свои идеи, а не ограничиваться только теми, которые легко осуществить в лаборатории.
Владимир:
Так что в данном случае машинное обучение, как и во многих других случаях, приходит в виде фильтра. У нас очень много различных возможных комбинаций, и это может быть в совершенно других отраслях, совершенно не связанных с медициной.


Что можно сделать с помощью ML, так это определить, на какую комбинацию (1%, 0,5% или 0,0001%) стоит обратить внимание. Де-факто это означает, что физически вам просто придется пробовать разные комбинации в тысячу или миллион раз меньше.


Расскажите мне это в цифрах с точки зрения времени. Я понимаю, что все зависит и т.д., но, допустим, как сейчас (годы или месяцы)? И как там с использованием машинного обучения? Какой масштаб больше или меньше?

Станислав:
Я очень рад, что вы упомянули об этом с точки зрения того, что фильтр должен быть сделан. Это один из способов использования нашей системы. Это практический пример того, как кто-то приходит с миллионом соединений и хочет отобрать тысячу из них, что сделать довольно просто.


Что касается времени, то это тоже очень важная вещь, которую можно улучшить с помощью машинного обучения. Здесь нет официальных эталонов, поэтому я не хочу называть конкретные цифры, но, безусловно, можно сказать, что если мы объединим различные подходы, скажем, на основе традиционных алгоритмов, которые никак не используют машинное обучение, и алгоритмов, которые используют ML, то можно говорить об ускорении от 10 до 100 раз на одно соединение, если мы используем машинное обучение. ML способен угадать многое из того, что алгоритму раньше приходилось прочесывать вручную. В подтверждение моих слов стоит упомянуть, что подобные результаты наблюдаются во многих областях, не только в нашей. Например, если мы хотим предсказать химические свойства какого-либо соединения, например, температуру, при которой оно растворится, то традиционно это делалось с помощью дорогостоящего квантового моделирования. Но многие исследования недавно показали, что можно создать нейронную сеть, которая работает в 100 раз быстрее и дает такую же точность. Мы видим нечто подобное и здесь.


Это не единственный аспект того, как мы улучшаем предыдущие решения, но, несомненно, скорость очень важна.
Владимир:
Раз уж вы об этом упомянули, расскажите, какие еще есть аспекты?
Станислав:


Мне кажется, что другим не менее важным аспектом является то, что эти ранние решения, которые не были основаны на ML, как правило, работали только с соединениями, которые были в некотором смысле либо известны (то есть, люди сделали их, и в литературе есть статья об этом), либо очень конкретно удовлетворяли какому-то правилу.


Многие решения раньше работали и продолжают работать таким образом, что химики просто устанавливали правила, согласно которым это соединение можно упростить вот так и провести реакцию вот так, а это другое соединение можно получить вот так. Из-за этого решения, не использующие ОД, имеют эту конкретную проблему: химики вводят соединение, а конкретная система говорит, что не знает, как это сделать, потому что оно слишком далеко или слишком непохоже на то, что ранее было описано правилами. Другой ключевой аспект, в котором ML помогает, помимо скорости, заключается в том, что он позволяет работать над новыми структурами..
Владимир:
Это интересно. Вот, собственно, и вещь, которая возникает довольно неочевидным образом, говоря о машинном обучении в целом, что классически это было бы так, что вы просто случайно составили список правил, но давайте признаем, что эти правила, зависимости довольно ограничены. Человеческий мозг должен был прогнать их через себя, а это не всегда эффективный фильтр.


У человеческого мозга тоже есть свои преимущества, с которыми ОД пока не может разобраться, но, с другой стороны, у него есть и недостатки, которые ОД просто способен уловить и найти неочевидные вещи, какие-то взаимосвязи, о которых никто раньше не задумывался, и это прекрасно.


Интересно, как часто вас удивляет именно такой результат? Было обнаружено что-то, с чем никто раньше не сталкивался, но, с другой стороны, это было не очень сложно. Это скорее случай, когда это просто было где-то видно, но никто на это не наткнулся. Бывали ли подобные ситуации, и редко ли это случается, или такие ситуации происходят достаточно регулярно?
Станислав:


Мне кажется, что самая большая разница (хотя это не обязательно удивительно) заключается в том, что эта система на основе ML действительно способна делать много взаимосвязей, по сравнению с системой на основе правил. Это может быть разница, скажем, в 30%.


Ранее каждое третье соединение, по сравнению с системами на основе ML, не синтезировалось. Что, возможно, несколько удивительно, так это то, что цена соединения в конечном итоге складывается не только из того, как его сделать, т.е. из этого кулинарного рецепта, но и из стоимости необходимых ингредиентов. Торты могут иметь очень разную стоимость в зависимости от того, использует ли один из них дорогие орехи или матчу, а другой - нет. Здесь мы также имеем такой интересный эффект, что иногда мы можем предложить синтезы, которые очень дешевы, потому что в нашей базе данных есть цены на соединения, которые химик обычно не имеет в виду. Здесь мы имеем эффект, когда, например, один завод по производству лекарств в Китае прекратил свою работу, и из-за этого вдруг определенная группа соединений становится очень дорогой, и поэтому ее не следует искать в качестве потенциальных лекарств.


В каком-то смысле экономика способна влиять на цену лекарств или контролировать процесс открытия лекарств очень странным образом, поскольку она очень способна изменять затраты. Или, например, создается какой-то новый класс соединений, потому что кто-то придумал новую реакцию, и вдруг процесс открытия лекарств становится более возможным, потому что эти соединения вдруг стали дешевле. Такие вещи действительно происходят, и они даже не столько благодаря машинному обучению, сколько благодаря комбинации ML с тем фактом, что мы знаем цены на соединения на рынке и можем их проверить.
Владимир:
Первое, на что вы влияете, это время - вам удается быстрее находить решения. Второе - это изменение способа ведения дел, то есть такие вещи, которые раньше были ограничены по тем или иным причинам, и анализ вообще не проводился.


Третья вещь - это ценность для бизнеса: что если что-то было найдено, но сколько это стоит? Это немного напоминает мне времена, когда я работал в General Electric, я как раз занимался здравоохранением, и там проблема была похожей. Обычный инженер может построить это, чтобы оно служило долго, работало хорошо, но он не слишком хорошо знает, дорого ли это. Обычно его это вообще не волнует. Только потом, где-то в самом конце, когда он проходит через различные проверки, кто-то делает расчеты, и выясняется, что это слишком дорого. Тогда я создал систему, которая давала быструю обратную связь о том, сколько это стоит. Я думаю, что она работала примерно так же, поскольку была база, хотя эта база тоже очень интересна, потому что она не такая уж тривиальная.


Я подозреваю, что и у вас так же, потому что не всегда легко найти, сколько что-то стоит, потому что это зависит от множества контекстов - например, от того, в какой стране вы находитесь. Все эти контексты должны быть приняты во внимание, но я думаю, что это также похожая история, когда человек, который проектирует, обычно не обладает такими экономическими знаниями, которые были бы полезны на этапе проектирования. Теперь давайте попробуем разобраться в деталях, когда дело доходит до выполнения подобных проектов НИОКР. Машинное обучение само по себе является сложной задачей, потому что есть некоторые вещи, которые менее определены, больше риска. В зависимости от того, насколько сложным является проект, этот риск возрастает. Когда я слушаю то, что вы говорите, мне кажется, что этот риск довольно велик, потому что многое может пойти не так.

Мне интересно, как вы вообще подходите к этому с практической точки зрения. Применяете ли вы здесь, например, закон Парето, когда пытаетесь найти те 20% случаев, когда стоит приложить усилия, потому что это приносит 80% пользы? Возможно, внутри компании вы называете это как-то иначе? Мне любопытно, как вы управляете рисками в проекте, который имеет достаточно большой риск?
Станислав:


Я очень рад, что вы упомянули об этом, это центральная часть того, что мы делаем, но позвольте мне ответить на этот вопрос немного по-другому, а затем вернуться к нему, потому что для того, чтобы дать ответ, мне нужно немного больше рассказать о том, как выглядит этот продукт со стороны ИИ.


Я думаю, это наглядно покажет набор существующих проблем. Думаю, все читатели знакомы с AlphaGo. Это система ИИ, созданная компанией DeepMind (я специально использую здесь слово "система", потому что оно объединяет алгоритмы поиска и нейронные сети), которая может играть в игру Го. Го - невероятно сложная игра, раньше люди думали, что ее решит кто-то на 10 лет позже, чем это сделала DeepMind. Это очень сложная игра, люди думали, что она находится за пределами возможностей ИИ. Это потому, что в ней очень много ходов. Это игра, в которой мы ставим белые и черные камни на очень большую доску, и поэтому дерево перебора ходов просто невообразимо больше, чем в шахматах. Алгоритмы, как в шахматах, где это скорее эвристика плюс поиск, вряд ли будут работать.


DeepMind смог сделать это, в частности, потому, что они смогли сыграть около 100 миллиардов различных ходов в этой игре в процессе обучения, и благодаря этому научиться играть в игру оптимально. Это было ключевой частью того, почему они добились успеха, помимо невероятно очевидных блестящих решений ИИ. Что интересно, и почему я это привел, так это то, что наша проблема может быть сформулирована таким же образом, только она еще сложнее, чем проблема Го. Мы также можем представить себе синтез соединения в виде игры. Мы начинаем с соединения, которое хочет получить химик, и даем ему рецепт, как его приготовить.

Мы должны перебрать все дерево игры, где каждый ход - это разбиение этого соединения на два более простых, пока не доберемся до соединений, которые можно купить. То есть, вы можете увидеть такую картину: у нас есть дерево, где на вершине находится целое соединение, а затем мы разрезаем его, например, пополам, снова пополам, пока не дойдем до такой вещи, которую можно купить, например, кислоту, воду, что угодно. Вещь, которую, предположим, можно купить в магазине и смешать.


Почему это намного сложнее, чем Go? Мало того, что этот фактор возможных движений предположительно похож или хотя бы образно похож, но хуже всего то, что мы не знаем, какие движения можно сделать. В тот момент, когда у нас есть состав, мы не просто знаем, какую реакцию можно использовать, мы просто должны узнать это из данных, которых, к сожалению, не 100 миллиардов, а скорее 1 миллион. С этой точки зрения, я надеюсь, вы видите, что это такая очень научно-исследовательская проблема по своей природе. Здесь просто нет решений, которые запрашивают у базы данных цену соединений, совсем наоборот. Это всего лишь один из элементов, но самый сложный элемент - разбить основное соединение на более мелкие соединения, которые можно купить. Этот путь - игра в го, и это ключевая проблема ИИ или технологии.


Мы бы хотели, чтобы было обучение с подкреплением, и мы даже пытались в какой-то момент, но в силу того, что у нас нет 100 миллиардов движений, только 1 миллион данных о шумных реакциях (они, кстати, получены из патентов в Штатах), просто обучение с подкреплением здесь пока не помогает. Нам нужно больше сосредоточиться на том, чтобы правильно делать ходы, потому что в Го ходы - это правила.


Мы знаем, куда класть белый камень и черный камень, что, в частности, нельзя класть камень на камень. Нам нужно выучить ходы, и это пока главная проблема.


Но да, обучение с подкреплением в будущем, скорее всего, будет полезным.
Владимир:
Что касается беспорядочных данных и патентов, это звучит немного похоже на то, что вы сделали в настоящее время, случайно, что существует такая система проверки качества этих патентов, и кажется, что там есть шум, не так ли?
Станислав:


Можно сказать, что это действительно второй результат. На самом деле это очень шумные данные. Кто-то может иногда указать температуру, которая в сто раз выше, или забыть указать, что он добавил кислоту или что-то еще, так что эти данные на самом деле очень шумные, и это ключевая проблема: как моделировать химию? По сути, мы хотим изучать природу или физику, а у нас всего миллион данных, и это очень мало в данном контексте.


Я просто хотел так нарисовать, потому что думаю, что это поможет немного ответить на этот вопрос. Вы спросили, как мы думаем о том, как создать ценность с помощью ИИ, и является ли это принципом Парето? Это очень похоже на следующее. Наша ключевая идея о том, как повысить ценность такого продукта, который дает рецепты получения конкретного соединения, заключается в том, чтобы сосредоточиться на том подмножестве химических веществ или реакций, которые мы умеем изучать.


Даже если эти данные невероятно запутаны и очень слабо представлены, существует подмножество реакций, которые мы умеем хорошо использовать (назовем его популярной химией). Принцип Парето здесь очень кстати, потому что мы занимаемся ИИ, но фокусируемся на невероятно узком срезе химии (то есть, предположим, что 120% по принципу Парето), но это уже дает нам 80% ценности.


Если мы сможем использовать общую химию, мы уже сможем работать с огромным количеством соединений, потому что в процессе открытия лекарств по разным причинам, включая тот факт, что это лекарства, они имеют схожую структуру. Принцип Парето очень важен в том, как мы думаем об этом продукте.
Владимир:
Давайте попробуем понять, что это означает на практике. Легко сказать, что вам созвучно сосредоточиться на том, что представляет наибольшую ценность при наименьших усилиях, но что это означает на практике?


Каковы критерии, на которых, как вы понимаете, вам крайне необходимо сосредоточиться: каковы сигналы тревоги, когда загорается "зеленый свет", можете ли вы быстро определить, что вы делаете? Как это выглядит с практической стороны с точки зрения планирования, логистики?
Станислав:


Сначала я расскажу историю от Tesla, из лекции об их автопилоте. Затем я расскажу аналогичную историю у нас и, возможно, проиллюстрирую таким образом то, что мы делаем в этом контексте. Это один из аспектов того, как мы применяем принцип Парето на практике, потому что, как я понимаю, вопрос в основном в этом.


Пример Tesla, как они подходят к автопилоту - один из аспектов автопилота в Tesla - это, конечно, распознавание знака STOP. Будет очень плохо, если автопилот не распознает знак "Стоп". Они доказали, что в какой-то момент своей работы (я предполагаю, что сейчас у них все хорошо) они плохо справляются с тем, что знаки STOP бывают разных конфигураций, потому что, например, знак STOP оказывается в руках человека на улице, он может быть в руках человека в обратном направлении (знак STOP держит человек, но он повернул его на 180 градусов), он может быть за деревом, он может быть с наклейкой на нем. Подход Tesla к этому классу проблем заключается в активном обучении, то есть они находят примеры, где это сложно, а затем собирают их из всего своего автопарка (то есть они собирают похожие примеры, которые имеют схожие свойства), они создают набор данных. Теперь, включив этот набор данных в свой полный набор данных, когда нейронная сеть или вся система снова обучится, она потенциально уже будет устойчива к этим знакам STOP.


Аналогично, мы реализуем принцип Парето таким образом, что просто тестируем то, что хотим. Это звучит просто, но очень редко реализуется на практике, по крайней мере, в этой области. Но опять же, мне кажется, что это часто происходит в индустрии искусственного интеллекта в целом.


Мы строим тесты, которые очень специфически проверяют химические знания модели в сравнении с тем, что она может хорошо предсказать реакцию. В результате наша модель работает гораздо стабильнее, чем эта обычная химия, и будет работать для большего числа клиентов. То есть, по аналогии с тем, как Тесла хотел бы распознать знак STOP, перевернутый на 180 градусов, мы также хотим, чтобы наша модель стабильно работала в ситуациях, когда мы получаем странные соединения.

Например, в процессе работы выяснилось кое-что интересное - мы проверяли одно химическое свойство, которое является ключевым - оно называется региоселективностью. Оно основано на том, что если у нас есть реакция, то в ней участвуют два субстрата. Один субстрат прилипает к другому, но он может прилипать в разных местах.


Если модель понимает, что такое региоселективность, выберет ли она хорошее место для прилипания? Что мне показалось интересным, так это то, что региоселективность не была ключевым аспектом для того, чтобы модель работала хорошо. Она просто научилась некоторым коротким путям, она была немного ленивой. Она очень хорошо училась разбивать соединения, но, к сожалению, она не знала, куда именно будет прилипать то, что ей нужно, потому что это не было необходимо по определенным причинам. Мы провели внутренний тест, который изучил это, а затем мы как бы внедрили это непосредственно в коучинг. Такой подход, когда, подобно Tesla, мы определяем, где мы не работаем на основе популярной химии, и вводим это в систему, либо улучшая ее напрямую, либо улучшая коучинг, позволяет нам более систематически думать о том, что и как внедрить этот принцип Парето и как его проверить.
Владимир:
Как узнать, что вы не упустили что-то важное? Представьте, что есть 100% вещей, которые можно сделать, есть те 20%, которые наиболее интересны, привлекательны, и как теперь узнать, что вы не пропустили 5 или 10 лучших?
Станислав:


По-разному, например, бывают волны популярности разных детских имен. Это похоже на то, что существует определенный набор реакций, которые актуальны в настоящее время. Эти тенденции меняются с течением времени, но их вполне можно определить. Мы просто знаем, какой набор реакций чаще всего используется для синтеза химических соединений, похожих на лекарства, и ориентируемся на них.


На них мы также ориентируемся в тех тестах, о которых я упоминал. Это немного похоже на то, что мы анализируем тенденции, существующие на рынке, и на основе этого фокусируемся на определенном подмножестве химических веществ.
Владимир:
Как случилось, что вы стали ученым?
Станислав:


Это было контролируемое совпадение, но в основном совпадение. Конечно, мне всегда нравилось разбираться во всем, но в целом это был стохастический процесс.


Первый элемент заключается в том, что я программировал с раннего возраста. Мой папа, по какой-то причине (чему я очень рад), научил меня программировать с самого раннего возраста, с начальной школы. Тогда мы программировали, например, очень простой физический движок. Это познакомило меня с программированием очень рано, и это был один из моих ключевых интересов. Я всегда хотел стать физиком, но не стал. В старших классах я поспорил с собой, что если я стану победителем олимпиады по физике, то пойду в медицину, потому что я тоже хотел стать врачом. Если же я дойду до финала, то буду заниматься физикой.


Как вы можете догадаться, я не попал ни в лауреаты, ни в финал, поэтому я решил, что если все так плохо, то я пойду на информатику. Так и получилось, что я поступил на компьютерные науки в UJ. Это оказалось фантастическим совпадением. Это было в 2011 году. Тогда в Польше просто не было глубоких нейронных сетей. Это то, как я упрощаю, но я думаю, что это достаточно хорошее упрощение. Конечно, были нейронные сети, но подход глубокого обучения практически отсутствовал, но именно профессор Игорь Подолак из Ягеллонского университета был моим наставником в индивидуальном обучении. Он, по сути, пробудил во мне любопытство к этому предмету, и благодаря ему я им очень заинтересовался.

Это было очень важное совпадение, и именно в то время в Ягеллонском университете была создана группа GMUM (Группа исследований машинного обучения), которая сейчас, вероятно, является самой большой группой глубокого обучения в Польше, а в то время она вообще не занималась нейронными сетями, так что это тоже было интересное совпадение.

Мне интересен тот факт, что эти нейронные сети лениво обучаются, но это также ужасно большое совпадение. Помню, я отправил заявку на стажировку к профессору Йошуа Бенгио, а потом это письмо целый год пролежало в ящике для спама всего института в Монреале. Его вообще никто не открывал, потому что оно попало в спам, не знаю почему (я отправлял его из Gmail). Только через год они ответили мне, и немного потому, что письмо попало в ящик для спама, возможно, у меня был немного другой процесс найма. В общем, придя туда через год, я получил возможность работать в теме оптимизации. Это было еще одно совпадение. Они стали основой моей докторской диссертации и вообще теперь уже интересов.


Было еще несколько совпадений, так что тот факт, что я стал ученым и что я особенно активно занимаюсь оптимизацией, - это контролируемое совпадение. Но мне всегда была интересна наука, и сейчас я очень рад, что то, чем я занимаюсь, сочетает в себе все аспекты, которые мне нравились где-то на этом пути, потому что здесь есть химия, физика, программирование, искусственный интеллект, работа с людьми. Каким-то образом все это сложилось так, что объединяет элементы, которые меня интересуют.
Владимир:
Это интересно, потому что, с одной стороны, это совпадение, а с другой стороны, стоит понять, каково ваше отношение, потому что если бы вы взяли случайного человека и поставили его на это место, я подозреваю, что результаты были бы совсем другими.


Здесь я также хотел, чтобы прозвучало, в какой степени вы просто открыты, любите экспериментировать и узнавать новое. Проще говоря, когда на вашем пути появляется возможность, вы пробуете и тестируете ее. Затем, что работает для вас, и я думаю, что это также не совпадение, почему вы сейчас работаете в Molecule.one. Вы просто пытаетесь соединить разные точки.
Станислав:


То, что я работаю в Molecule.one, тоже ужасное совпадение, потому что все это благодаря тому, что у нас был общий друг и просто в то время я был одним из немногих людей в Польше, кто параллельно интересовался нейронными сетями и химией.
Владимир:
У вас есть часть, связанная с научным миром, с другой стороны, вы сейчас занимаетесь стартапом, бизнес-проектом. Как все это сочетается? В США ученые действительно иногда занимаются бизнесом, и в Польше это происходит все чаще и чаще, особенно если речь идет о молодых ученых.


С другой стороны, я думаю, что это все еще довольно редкое явление, и многие люди либо сидят в университетах, либо занимаются бизнесом. Быть здесь и здесь не так популярно. Хотя это так здорово - дополнять друг друга. Каково это для вас, как вы это совмещаете и какие планы? Есть ли шанс, что вы будете больше заниматься какой-либо из этих областей или вы хотите балансировать между ними?
Станислав:


Сейчас я больше занимаюсь наукой. Как я уже говорил, когда я начинал создавать эту команду машинного обучения, сейчас я больше научный консультант, но через месяц все изменится, потому что я буду постоянно работать в Molecule.one, так что можно сказать, что я в среднем буду половиной и половиной. На самом деле, как вы говорите, это очень интересное наблюдение, что в Польше (по крайней мере, в целом) это гораздо более редкое явление, чем в Америке - что очень жаль.


Мне кажется очень естественным, что должно быть больше побочных результатов от университетов, патентов, а в Польше этих патентов и побочных результатов мало. Трудно сказать, с чем это связано. Я не хочу здесь строить гипотезы.


Мне кажется, что одно из самых интересных направлений, в котором сейчас движется искусственный интеллект, это автоматическое научное открытие (automatic scientific discovery). В частности, в ближайшие 5, 10 лет нейронные сети и ИИ станут очень ключевыми в плане научных открытий, уже в масштабах Нобелевской премии. С этой точки зрения мне очень интересно это пересечение. Здесь есть научные вопросы, как нейронные сети могут сделать такие открытия или помочь ученым, но из этого также почти по определению следует, что вам также нужен бизнес, который, по крайней мере, когда речь идет об открытии лекарств, оперирует большими деньгами, затем может проводить такие эксперименты в лаборатории и так далее.


Конечно, есть научные области, где не нужно много денег, но именно в сфере моих интересов эксперименты могут быть дорогими.


Если я заинтересован или вижу потенциал в этом пересечении, в том, что ИИ помогает в науке, химии или открытии лекарств, то выхода фактически нет, и нужно быть где-то посередине этих двух очень увлекательных областей и их пересечения. Мотивация проистекает из естественности этой деятельности.


Есть и более философская мотивация. Процесс открытия лекарств, как я уже говорил, очень дорогой и очень неэффективный. Мне кажется, что это интересная проблема, которую нужно решить, и это также мотивирует меня работать над ней в долгосрочной перспективе, будь то в бизнесе или в науке.
Владимир:
Мне любопытно, есть ли у вас конкретный потолок, чего бы вы хотели достичь как минимум, чтобы считать, что весь этот процесс вовлечения в этот проект, отдачи своей энергии, просто имеет смысл?
Станислав:


Нет, не совсем. Я просто отношусь к этому так, как будто это то, на чем я сосредоточился, а там посмотрим. Я не знаю, кто это сделает, но пока нет такого четкого примера, что нейронная сеть сильно помогла в открытии лекарства. Есть несколько работ, в которых это утверждается, но я бы с осторожностью отнесся к этим утверждениям.


Они были скорее формой инструмента, но не решающего. Хотя это не то чтобы моя личная цель, мне кажется, что для всей этой области было бы такой вехой, если бы ключевой частью лекарства, которое можно будет купить в аптеке, было использование ИИ. Мне кажется, тогда мы действительно, как все сообщество, увидим, что на самом деле ИИ способен помочь процессу открытия лекарств и, в частности, помочь науке в целом.

На данный момент меня восхищает пересечение ИИ и научного процесса: у него много маленьких успехов, но еще нет такого, чтобы ИИ действительно помог что-то открыть. Скорее, он добивается таких же результатов, как и некоторые врачи, но нет такого, чтобы, например, ИИ сказал что-то новое о раке груди. Мне очень интересно посмотреть, когда начнут появляться первые подобные результаты. Мне кажется, что это будет частью следующей революции в области глубокого обучения и ИИ.
Владимир:
Это то, о чем я хотел спросить, то есть, этот момент, когда это произойдет, звучит немного как революция, но, ссылаясь на AlphaGo, ограничение на данный момент заключается в том, что просто меньше данных, взятых на пробу.


Если появится решение, которое сможет самостоятельно, автономно генерировать что-то, понять это, тогда это будет звучать немного похоже на то, что это что-то также сможет генерировать больше образцов, потому что у него будет лучшее понимание реальности (по крайней мере, какого-то кусочка реальности). Это создает совершенно иные возможности, чем те, которые мы имеем сейчас. Это что-то похожее на то, как компьютерное зрение было до ImageNet и фактически после 2012 года. Это что-то подобное? Такая веха?
Станислав:

Да, это совершенно потрясающая возможность, реальное взаимодействие. Здесь мы можем сосредоточиться на множестве применений ИИ, а не только на выполнении реакций. В тот момент, когда ИИ действительно начнет проводить такие эксперименты самостоятельно, у него появится потенциал стать, как вы говорите, чем-то совершенно новым.


В частности, меня очень волнует взаимодействие, т.е. если ИИ будет сам предлагать эксперименты, например, какие реакции проводить, то очень интересно посмотреть на взаимодействие с химиком и на то, что они смогут сделать вместе. Здесь я немного растягиваю аналогию, но есть несколько классных результатов того, что люди, используя AlphaGo, могут узнать что-то новое о го. Есть много подобных примеров от DeepMind. Круто, что это происходит в AlphaGo, но что если это начнется где-то в науке?


Я думаю, что это потребует больших достижений, не только в количестве данных или денег, но и в методах ИИ, и это часть мотивации, почему я нахожусь на этом пересечении науки и бизнеса.
Владимир:
На самом деле, в случае с AlphaGo это произошло случайно. Это то, что никто явно не планировал, что были обнаружены другие подобные закономерности, с которыми никто раньше не сталкивался.


Возникает соблазн задать еще один вопрос. Раз есть магическая точка X, возможно, ее можно достичь (сейчас, конечно, немного гаданий), но, скажем, это перспектива на 5, 20, 50 лет? Что вы чувствуете?
Станислав:

Мне кажется, что это скорее перспектива на 5-10 лет. Конечно, мы никогда не определяли, что мы имеем в виду, поэтому сколько это будет - это тем более гадание, потому что мы не дали здесь четкого определения. В любом случае, я бы отнес момент, когда в целом появятся первые очень четкие результаты того, что ИИ открыл что-то научное, к 5-10 годам, потому что в различных других областях мы уже не за горами.


В частности, в области открытия лекарств и химии, где у меня немного больше информации. Что очень интересно, так это то, что параллельно с совершенствованием ИИ совершенствуются и наши навыки моделирования. Напомню, что химия - это физический процесс, поэтому, по сути, если бы мы знали, как все это смоделировать, большое количество проблем было бы снято.

Мне кажется, что моделирование здесь очень важно, и что моделирование развивается параллельно с мощью ИИ, а с вычислительной мощностью ИИ этот прогресс происходит, возможно, быстрее, чем мы думаем. Здесь стоит упомянуть, например, квантовые компьютеры, которые могут иметь большое значение в химии. Здесь перспектива может быть более 50 лет.


Я бы сказал так: 5-10 лет - это моя гипотеза. Возможно, я ошибаюсь, но я был бы рад проверить через 5-10 лет.
Владимир:
На самом деле мы не определили, что это такое, но мы практически определили, что это будет такой прорывной момент, и здесь, плюс или минус, вы можете понять, о чем идет речь.


В наше время трудно пройти мимо темы COVID, поэтому возникает вопрос: может ли то, что вы делаете, каким-то образом привести к поиску лекарства или вакцины? Работаете ли вы в этом направлении?
Станислав:

Наиболее перспективный процесс поиска лекарства от КОВИДа - это вакцина. Не менее, другие пути - это просто найти новую структуру, которая действует как лекарство, и в этом контексте мы сделали наши решения доступными для всех исследователей, которые ищут лекарство от коронавируса, и мы сотрудничаем с несколькими группами.


В частности, стоит упомянуть такой проект из Монреаля, группы профессора Йошуа Бенгио, который называется LambdaZero (это, конечно, по аналогии с AlphaZero). Идея заключается в том, чтобы использовать аналогичный алгоритм для поиска лекарств, которые прикрепляются к белкам, имеющим отношение к механизму действия COVID. Ключевое новшество заключается в том, что они ищут чудовищные количества этих соединений.


В этом контексте возникла необходимость в использовании очень быстрого алгоритма для оценки синтезируемости, и именно в этом проекте мы сотрудничали с двумя людьми. Они использовали наше бесплатное решение, пропуская через нашу систему 100-200 000 соединений, которые мы оценивали для них с точки зрения возможности синтеза. Это было бы довольно сложно сделать с помощью других решений по временным причинам.
Владимир:
Когда мы узнаем, помогло ли это кому-нибудь? Каковы следующие шаги?
Станислав:

Здесь я не могу рассказать подробности. То, что видно на сайте LambdaZero, я могу сказать. Проект существует уже около года, и на сайте указано, что они нашли состав, который хорошо работает в симуляторе и теоретически может быть выполнен в лаборатории. Но есть ли практические результаты, пока ничего не сообщается, да и какие-то сроки назвать сложно.
Владимир:
Наконец, я хотел бы спросить, возможно, немного философски, немного этически: как вы думаете, к чему все это приведет с точки зрения осмысления происходящего? Какое влияние это окажет на людей? Станут ли люди здоровее благодаря этим решениям, которые могут появиться?
Станислав:

Я думаю, что лучше всего сосредоточиться на том, сколько стоит этот процесс и насколько он длителен. Как я уже упоминал, процесс открытия лекарств, т.е. от вершины воронки до одного соединения, может стоить, скажем, $1 млрд. Отсюда простой вывод: для заболеваний, которыми страдают, скажем, 10 000 человек, этот процесс, к сожалению, просто нерентабелен.


Снижение стоимости этого процесса, для чего, как мне кажется, сочетание искусственного интеллекта и моделирования имеет большой потенциал, способно сделать весь процесс достаточно дешевым. Даже для тех заболеваний, которые поражают небольшую популяцию. Таких заболеваний, к сожалению, очень много. Это, в частности, некоторые генетические изменения, которые приводят к конкретным заболеваниям, которые мы часто знаем, как лечить, каков механизм болезни, но это просто не окупается со стороны рынка, и никакие политические решения этого не изменят.


Здесь вообще самый большой потенциал для применения методов искусственного интеллекта или лучшего моделирования в процессе открытия лекарств.
Владимир:
Мы надеемся, что если процесс будет дешевле, то на практике это означает, что лекарства просто станут доступными, потому что, к сожалению, есть и другие аналогии, например, с нефтью. Когда нефть дешевая или даже иногда отрицательная (то есть кто-то платит за то, чтобы кто-то покупал эту нефть), а бензин плавно, может быть, падает, а может быть, иногда и не обязательно.


Эти процессы в экономике иногда довольно интересны тем, что они регулярно растут, но не всегда хотят падать. Будем держать пальцы скрещенными, что в данном случае это действительно принесет пользу людям, потому что технология имеет большой потенциал. Конечно, есть вещи, которые еще нужно лучше понять, проверить, и это то, с чем вы имеете дело. Будет прекрасно, если это решение действительно будет способствовать решению жизненных проблем, которые на данный момент остаются без внимания, потому что, как вы упомянули, это не всегда рентабельно, то есть невозможно создать эти лекарства теми методами, которые доступны на данный момент, тогда, по крайней мере, здесь мы надеемся, что это будет достижимое, ощутимое решение для большей группы людей.


Возможно, не для всех, хотя, возможно, именно в этом направлении можно двигаться, потому что в конечном итоге технологии, когда эта мудрость придет на цифровой уровень, технологически это уже не будет дорогостоящим. Проблема скорее в том, как добраться до этого момента. На данный момент, когда появился AlphaGo, запустить его уже не так сложно, и это определенно меньшие деньги.


Думаю, на сегодня все. Большое спасибо за интервью, я желаю вам расти как личность, как человек, который любит исследовать мир. Я надеюсь, что это будет способствовать тому, чтобы мы как народ, как цивилизация, вышли на новый, более высокий уровень своего развития. Большое спасибо.
Станислав:

Большое спасибо за приглашение и интервью. С нетерпением жду вашего ответа.
Если вам понравилось это интервью, пожалуйста, очень прошу порекомендовать его послушать хотя бы одному человеку. Я буду благодарен вам за любую благодарность, т.е. в iTunes вы можете поставить 5 звезд, написать комментарий. Таким образом, этот подкаст станет более доступным для других людей.


Я также приглашаю вас подписаться на рассылку, потому что так вы будете получать последние новости. Мы не спамим, мы напоминаем вам, когда выходят новые эпизоды, а также присылаем вам gifs, когда они выходят.В этом случае у нас есть подарок, который подготовил Сташек. Чтобы сэкономить ваше время, я попросил его подготовить краткое руководство или мотивацию и упомянуть некоторые научные публикации, которые стоит прочитать, чтобы лучше понять, что значит, что нейронные сети ленивы и когда это окупается, и как попытаться понять это лучше, чтобы продвинуться в этом мире. Это такое сжатое знание в PDF. Если вы хотите скачать, рекомендую подписаться на рассылку.


Вопрос, который я задал Сташеку в конце: к чему это приведет, ведь это здорово, что есть такие инструменты, механизм, с помощью которого можно находить лекарства быстрее, эффективнее, точнее, но что это значит для людей? Не получится ли так, что жадность заведет кого-то слишком далеко? Мы побеседовали после записи подкаста, и, помимо всего прочего, Сташек очень оптимистично считает, что лучшей системы, чем капитализм, на данный момент не существует.


В Соединенных Штатах, например, существуют различные гарантии или патенты, которые действуют в течение Х лет как своего рода тормозной механизм, и тогда вы можете спокойно производить эти лекарства, а рынок должен регулировать их так, чтобы цена была адекватной. Здесь он более оптимистичен, хотя он также упомянул не очень крутой пример, который произошел в его время, когда одна компания скупила патенты, а затем, скупив их, подняла цены, и это были лекарства, которые люди должны были потреблять, потому что это был вопрос жизни и смерти.Конечно, у компании были высокие прибыли, доходы, но за счет чего? Я понимаю, что такие ситуации могут возникать, но, тем не менее, я оптимист и хотел бы придерживаться этой мысли. С другой стороны, стоит задуматься, будет ли технология действительно способствовать этому, будет ли она в правильных руках?



Вот последний вопрос и для вас: что, по вашему мнению, должно произойти, чтобы такая технология оказалась в правильных руках, и как определить эти правильные руки? Как мы узнаем, что эти руки правильные?