Google представила MedLM, семейство генеративных моделей ИИ, ориентированных на здравоохранение

Google считает, что существует возможность переложить больше задач в сфере здравоохранения на генеративные модели ИИ — или, по крайней мере, возможность привлечь эти модели для помощи медицинским работникам в выполнении их задач.

Вчера компания анонсировала MedLM, семейство моделей, специально разработанных для медицинской отрасли. MedLM, основанная на Med-PaLM 2, разработанной Google модели, которая на «экспертном уровне» справляется с десятками вопросов медицинского экзамена, доступна клиентам Google Cloud в США (на некоторых других рынках она находится в предварительной версии), которые вошли в белый список через Vertex AI, полностью управляемую платформу Google для разработки ИИ.

В настоящее время доступны две модели MedLM: более крупная модель, предназначенная для решения «сложных задач», по определению Google, и более компактная модель с точной настройкой, которая лучше всего подходит для «масштабирования различных задач».

«Экспериментируя с нашими инструментами в различных организациях, мы выяснили, что наиболее эффективная модель для той или иной задачи зависит от конкретного случая использования», — говорится в сообщении в блоге Йосси Матиаса, вице-президента по инженерным разработкам и исследованиям Google. «Например, с обобщением разговоров лучше справится одна модель, а с поиском лекарств — другая».

По словам Google, один из первых пользователей MedLM, оператор коммерческих учреждений HCA Healthcare, опробовал модели с врачами, чтобы помочь им составлять записи о пациентах в отделениях неотложной помощи. Другой участник тестирования, компания BenchSci, встроила MedLM в свой «механизм подтверждения» для выявления, классификации и ранжирования новых биомаркеров.

«Мы работаем в тесном сотрудничестве с практикующими врачами, исследователями, организациями здравоохранения и медико-биологическими учреждениями, а также с людьми, которые каждый день находятся на переднем крае здравоохранения», — пишет Матиас.

Google — наряду с главными конкурентами Microsoft и Amazon — отчаянно пытается занять место на рынке искусственного интеллекта в здравоохранении, который к 2032 году может оцениваться в десятки миллиардов долларов. Недавно Amazon запустила систему AWS HealthScribe, которая использует генеративный ИИ для расшифровки, обобщения и анализа записей разговоров между пациентом и врачом. Microsoft тестирует различные продукты для здравоохранения на базе ИИ, в том числе медицинские «помощники», основанные на больших языковых моделях.

Однако есть причины опасаться таких технологий. Исторически сложилось так, что ИИ в здравоохранении работает с переменным успехом.

Babylon Health, ИИ-стартап, поддерживаемый Национальной службой здравоохранения Великобритании, неоднократно оказывался под пристальным вниманием из-за заявлений о том, что его технология диагностики заболеваний может работать лучше, чем врачи. А компания IBM была вынуждена продать свое подразделение Watson Health, ориентированное на ИИ, с убытком после того, как технические проблемы привели к ухудшению партнерских отношений с клиентами.

Можно возразить, что генеративные модели, подобные тем, что используются в семействе MedLM компании Google, гораздо сложнее тех, что были созданы до них. Однако исследования показали, что генеративные модели не слишком точны, когда речь идет об ответах на вопросы, связанные со здравоохранением, даже на довольно простые.

В одном из исследований, проведенном группой офтальмологов в качестве соавторов, чат-боту ChatGPT и чат-боту Bard от Google были заданы вопросы о глазных заболеваниях и состояниях, и выяснилось, что большинство ответов этих инструментов были не совсем верными. ChatGPT генерирует планы лечения рака, полные потенциально смертельно опасных ошибок. Кроме того, модели ChatGPT и Bard извергают расистские, развенчанные медицинские идеи в ответ на вопросы о работе почек, жизненной емкости легких и состоянии кожи.

В октябре Всемирная организация здравоохранения (ВОЗ) предупредила о рисках использования генеративного ИИ в здравоохранении, отметив, что модели могут генерировать вредные неправильные ответы, распространять дезинформацию о проблемах здоровья и раскрывать медицинские данные или другую конфиденциальную информацию. Поскольку модели время от времени запоминают обучающие данные и возвращают часть этих данных при правильной подсказке, не исключено, что модели, обученные на медицинских картах, могут непреднамеренно слить эти данные.

«Хотя ВОЗ с энтузиазмом относится к надлежащему использованию технологий, включая генеративный ИИ, для поддержки медицинских работников, пациентов, исследователей и ученых, есть опасения, что осторожность, которая обычно проявляется в отношении любой новой технологии, не соблюдается в случае с генеративным ИИ», — говорится в заявлении ВОЗ. «Поспешное внедрение непроверенных систем может привести к ошибкам медицинских работников, нанести вред пациентам, подорвать доверие к ИИ и тем самым сорвать или отсрочить потенциальные долгосрочные выгоды от использования таких технологий во всем мире».

Компания Google неоднократно заявляла, что проявляет исключительную осторожность при выпуске инструментов генеративного ИИ для здравоохранения, и сегодня она не изменила своей позиции.

«Мы нацелены на то, чтобы предоставить профессионалам возможность безопасно и ответственно использовать эту технологию», — продолжил Матиас. «И мы стремимся не только помогать другим в развитии здравоохранения, но и обеспечить, чтобы все эти преимущества были доступны каждому».

Источник:Google представила MedLM, семейство генеративных моделей ИИ, ориентированных на здравоохранение (aiall.ru)