Адрес для входа в РФ: exler.world

ChatGPT поставил правильный диагноз там, где не справились 17 врачей

01.02.2024 12:00  10956   Комментарии (179)

Юный Алекс, которому 17 врачей не смогли поставить правильный диагноз

Показательную историю рассказала в издании Today женщина, которую зовут Кортни.

С 2021 года ее 4-летний сын по имени Алекс начал испытывать различные боли. Няня ребенка сказала Кортни, что она вынуждена время от времени давать ребенку Motrin (ибупрофен), чтобы избавить его от боли и соответствующих срывов.

Ребенок явно страдал, вел себя очень странно, закатывал истерики, периодически начинал грызть предметы. Родители водили его по врачам. В какой-то момент его обследовал ортодонт (у родителей было подозрение, что ребенок плохо спит, из-за чего выглядит измученным), и ортодонт обнаружил определенные проблемы с нёбом у ребенка. Ему поставили на нёбо специальный расширитель, и на какое-то время ситуация заметно улучшилась.

Потом Кортни заметила, что Алекс перестал расти, что у него наблюдается дисбаланс между правой и левой стороной тела, также он стал испытывать сильные головные боли. 

Алекса водили к педиатрам, узким специалистам: всего за 3 года они посетили 17 врачей и провели множество обследований, но никто из них так и не смог поставить диагноз, который бы объяснял все симптомы.

И тогда уже отчаявшаяся Кортни зарегистрировалась в ChatGPT и ввела там всю информацию об обследованиях и все симптомы.

ChatGPT высказал предположение о том, что это может быть синдром перетянутого позвоночника. Кортни нашла в Facebook группу, объединяющую семьи детей с этим синдромом, и их истории были похожи на историю Алекса. Тогда они пошли к новому нейрохирургу, и Кортни сказала, что подозревает у сына наличие этого синдрома. Доктор посмотрела снимки МРТ и сказала, что диагноз совершенно правильный: она на снимке увидела occulta spina bifida (осколочный спинальный дефект) и перетянутый позвоночник. 

По данным Американской ассоциации неврологических хирургов, синдром перетянутого позвоночника возникает, когда ткани спинного мозга образуют крепления, ограничивающие подвижность спинного мозга, вызывая его ненормальное растяжение. Это состояние тесно связано со spina bifida - врожденным дефектом, при котором часть спинного мозга развивается не полностью, и некоторые участки спинного мозга и нервов оказываются оголенными.

При синдроме переплетения спинного мозга "спинной мозг к чему-то прилипает". Это может быть опухоль в спинномозговом канале. Это может быть шишка на костном шипе. Это может быть просто слишком много жира на конце спинного мозга", - рассказывает TODAY.com доктор Холли Гилмер, детский нейрохирург из Мичиганского института головы и позвоночника, который лечил Алекса.

У многих детей со spina bifida есть видимое отверстие в спине. Но у Алекса оно закрыто и считается "скрытым", также известным как spina bifida occulta, согласно данным Центров по контролю и профилактике заболеваний США.

После получения правильного диагноза Алекс перенес операцию по устранению этого синдрома, и теперь он, по словам Кортни, быстро восстанавливается.


Специалисты признают, что в определенных случаях ChatGPT может поставить диагноз точнее, чем соответствующий специалист, потому что он оперирует с огромными объемами информации, и у него нет "слепых зон", как у врача-человека.

Однако следует иметь в виду, что ChatGPT иногда может фабриковать какую-то информацию, если не может найти правильный ответ, и тогда диагноз будет поставлен неправильно.

Но в любом случае специалисты считают, что использование систем искусственного интеллекта в диагностике имеет большие перспективы.


 

Комментарии 179

Интересно, умеет ли ChatGPT сравнивать версии документов, аналогично тому, как это делается в MS Word?
02.02.24 01:08
0 0

Не знаю про ChatGPT и MS Word - но точно знаю, что есть алгоритмы, умеющие сравнивать между собой два томографических исследования. Что есть дело очень нетривиальное, т.к. человек никогда не лежит абсолютно в одной и той же позе, худеет/полнеет и так далее.
Разумеется, система сама не ставит диагноз - а только показывает найденные изменения на отключаемом слое (на манер карт), но это очень помогает врачу в оценке действия назначенных методов лечения - например, при онкологии.

умеет ли ChatGPT сравнивать версии документов, аналогично тому, как это делается в MS Word
02.02.24 14:17
0 0

Всегда храню свои последовательности в ВОРДе. Миллион программ, но они постоянно умирают, и форматирование в ВОРДе всегда лучше. +Драть деньги за программы текстового поиска строк и выделение шрифта цветами -- жлобство. Правда, есть одна ОК программа -- GeneRunner -- аж 1994 года! Еще работает! Лучше никто с тех пор не сделал, imho.

Последовательности сравниваются в БЛАСТе, форматирует в плейн-тексте, главное выставлять fixed-size фонт.
02.02.24 14:54
0 1

The future is here.

02.02.24 01:01
0 0

Главный медицинский аспект применения искусственного интеллекта в медицине заключается в следующем: как ChatGPT относится к ношению масок при КОВИД-е и к чипированию.
01.02.24 23:13
2 0

Диагноз все-таки поставил врач, проверив предположение ChatGPT. Это будет еще один способ в их наборе методов.
01.02.24 19:34
0 9

Диагноз все-таки поставил врач, проверив предположение ChatGPT. Это будет еще один способ в их наборе методов.
Я думаю довольно скоро необходимость идти к врачу при простых вопросах отпадет полностью, т.е. технологии их заменят с большим качеством.
01.02.24 22:27
0 3

Я думаю довольно скоро необходимость идти к врачу при простых вопросах отпадет полностью, т.е. технологии их заменят с большим качеством.
Нет, не заменят. В данном случае ChatGPT выдал результат только и исключительно по одной причие - на обследуемого пациента было собрано огромное количество материала в процессе множества различных обследований.
В бытовой же ситуации, обычный челвек даже описать свои симптомы корректно не сможет. С такими входными данными и результат работы нейросетки будет соответсвующим. Основная работа врача диагноста - задать пациенту правильные вопросы и отсеить неправильные ответы.
02.02.24 13:17
1 2

Основная работа врача диагноста - задать пациенту правильные вопросы и отсеить неправильные ответы.
Неправильные ответы?
- Пациент, что у вас болит?
- Голова, доктор.
- Ответ неверный! Повторяю вопрос - что у вас болит?
Знавал я одного такого доктора, он имел довольно странную привычку не верить в то, что пациенты ему говорят. Наверное, это был прирожденный диагност!
02.02.24 21:03
0 0

Неправильные ответы?
Именно так. Когда на конкретно заданные вопрос человек отвечает на что угодно, кроме самого ответа.

- Пациент, что у вас голова болит?
- Да доктор, но только если в вечера больше литра выпил. Или если жена скалкой ударили. А вот колено каждое утро скрипит! А еще у Машки соседский триппер три года назад нашли, возможно это как-то связано.
05.02.24 13:22
0 0

Пока не читал статью, но предположу, что это была волчанка! Теперь посмотрю, угадал или нет.
01.02.24 18:06
5 1

Не исключено, что тут мы имеем классическую "ошибку выжившего", ибо мы не знаем какому количеству людей chatGPT поставил диагноз неверно.
01.02.24 17:12
0 10

Так неверный диагноз ничем не грозит. Проверили, отбросили, пошли дальше. А вот верный - другое дело.
01.02.24 19:27
0 4

Совершенно верно!
01.02.24 19:44
0 1

Так неверный диагноз ничем не грозит. Проверили, отбросили, пошли дальше.
Это если отбросили, то ничем не грозит. А если не отбросили?
01.02.24 19:57
1 1

То никакой разницы с "лечили по поставленному врачом неверному диагнозу" нет.
Лечение назначает врач, анализы тоже делаются по его предписанию.
02.02.24 11:59
0 1

Моя сестра любит говорить, что "настоящий мужчина должен быть чуть красивее обезьяны". Пример с Кортни ясно показывает, что даже самые умные и квалифицированные из нас - доктора - недалеко ушли от обезьян не только в красоте, но и в мыслительных способностях.
01.02.24 16:38
6 0

Вот и гадай теперь: это программы хорошие или врачи плохие?
01.02.24 16:29
1 2

Вот и гадай теперь: это программы хорошие или врачи плохие?
Мне кажется именно что программы хорошие, причем настолько, что сколько даже лучшим людям будет сложно или невозможно с ними состязаться.
01.02.24 19:18
1 0

Алекса водили педиатрам, узким специалистам: всего за 3 года они посетили 17 врачей и провели множество обследований, но никто из них так и не смог поставить диагноз, который бы объяснял все симптомы.

И тогда уже отчаявшаяся Кортни зарегистрировалась в ChatGPT и ввела там всю информацию об обследованиях и все симптомы.
Строго говоря, не совсем чистая победа в дисциплине "роботы против человеков".
Неизвестно, обратись Кортни к 18-ому врачу вместо ChatGPT, сумел бы он поставить (предположить) верный диагноз.
Также неизвестно, не обратись Кортни к 17-ому врачу, сумел бы ChatGPT на основе исследований только от 16 врачей поставить ровно тот же диагноз.
Но как минимум, он оказался не хуже гипотетического 18-го врача, что позволяет с осторожным оптимизмом и тайной надеждой смотреть в грядущее!
Похоже, верный способ выпилить кожанных мешков с этой планеты таки найден.
01.02.24 15:24
0 2

Строго говоря, не совсем чистая победа в дисциплине "роботы против человеков".
Что ж, давайте учтем, что chatgpt от рождения всего годик, тогда как все 16 врачей - наверняка убеленные сединами ветераны скальпеля и пипетки. В любом случае, независимо от того, кому мы отдадим победу, ситуация, когда ни один доктор не поставил правильный диагноз, не может считаться удовлетворительной. Я бы не хотел оказаться на месте Кортни. Ей повезло, что она просто дожила до правильного диагноза.
01.02.24 16:34
0 0

Что ж, давайте учтем, что chatgpt от рождения всего годик,
Ну-ну, наш малыш постарше (если говорить про GPT), да и беременность тоже подзатянулась. Но это неважно.
Думаю, скоро увидим, превратится ли это в полноценный иструмент диагностики или останется на уровне казуса. Так-то выглядит многообещающе.
01.02.24 17:14
0 0

Я бы не хотел оказаться на месте Кортни. Ей повезло, что она просто дожила до правильного диагноза.
Кортни - это имя мамы больного мальчика, о котором идет речь. Самого мальчика зовут Алекс.

Кортни - это имя мамы больного мальчика, о котором идет речь. Самого мальчика зовут Алекс.


Черт, я так гордился своим красивым комментарием, а вы все испортили!

Неизвестно, обратись Кортни к 18-ому врачу вместо ChatGPT, сумел бы он поставить (предположить) верный диагноз.
Пациента готовят к операции. Он спрашивает молодого жизнерадостного врача:
— Доктор, каковы шансы на успех?
— Я думаю, всё будет хорошо!
— А сколько вы уже сделали подобных операций?
— Пятьдесят.
— И все они были удачными?
— Нет. Все оказались неудачными.
— Так как же вы можете говорить, что всё будет хорошо?!
— Ну, когда-то уже должно в конце концов получиться.
02.02.24 11:24
0 4

Из статьи неясно мрт был до того как GPT поставил диагноз или снимки уже были, а врачи просто не могли прочитать.
Давным давно в больнице на соседней койке лежал мальчик которого долго лечили от эпилепсии, а потом сделали КТ и оказалась опухоль в мозге. КТ в те времена было редкость в СССР.
01.02.24 15:13
0 3

Уверен, что в перспективе десятка-другого лет потребность в консультационных врачах снизится в разы, и консультироваться мы будем у нейросетей, причем ощутимо качественнее и практически бесплатно.
01.02.24 14:45
0 3

причем ощутимо качественнее и практически бесплатно.
А рецепт кто будет выписывать?
01.02.24 15:11
0 1

А рецепт кто будет выписывать?
И лёгкие слушать!

Уверен, что в перспективе десятка-другого лет потребность в консультационных врачах снизится в разы, и консультироваться мы будем у нейросетей, причем ощутимо качественнее и практически бесплатно.
- вы себе хоть представляете сколько стоит размещение модели с данными, предоставление доступа к модели и вычислительных мощности чтобы сгенерировать ответ? Я даже не упоминаю разработку и тренировку модели. Бесплатно сами знаете что бывает.
01.02.24 21:47
0 0

- вы себе хоть представляете сколько стоит размещение модели с данными, предоставление доступа к модели и вычислительных мощности чтобы сгенерировать ответ? Я даже не упоминаю разработку и тренировку модели. Бесплатно сами знаете что бывает.
А с чего бы этому быть очень дорого? И уж точно на порядки дешевле (т.е. например в 300 раз), чем живые врачи. Цифру я не расчитывал специально 😄
01.02.24 22:32
0 1

Ну электронные стетоскопы существовали и до ковида, но в ковид был прям бум, как и всего остального, что имеет перспективы развития с телемедициной. И AI именно в этой сфере уже сделал большие шаги, много исследований и хороших результатов. Уверен, уже лет через 10 никто не будет слушать своими ушами слушать легкие и сердце не будет, и доверят это AI с большей надежностью.

А с чего бы этому быть очень дорого?
- The reason for that is that operating ChatGPT is massively expensive. One analysis of ChatGPT put the running cost at about $700,000 per day taking into account the underlying costs of GPU hours and hardware. That amount—derived from the 175 billion parameter-large architecture of GPT-3—would be even higher with the 100 trillion parameters of GPT-4.
02.02.24 18:04
0 0

И лёгкие слушать!
Да врачи все равно в этих легких вечно ничего не слышат, хоть и притворяются, что слушают.

One analysis of ChatGPT put the running cost at about $700,000 per day.
И обслуживает за этот день 10 -20 миллионов пользователей. А если перевести $700К в доктора-дни, то получится, скажем 500 докторо-дней, если каждый доктор обслуживает за день 30 посетителей, получаем что за $700К можно обслужить 15 тыс больных. Фактор можно посчитать. Я понимаю, что математика в жизни сложнее, но принцип остается.
03.02.24 00:00
0 1

давно была байка про ветеринара-неудачника

www.dailymail.co.uk
01.02.24 14:31
0 0

Думаю, статьи в Дейли Мейл тоже пишет Чат ГПТ теперь, так что конфликт интересов 😄
01.02.24 14:46
0 1

Думаю, статьи в Дейли Мейл тоже пишет Чат ГПТ теперь, так что конфликт интересов 😄
Гугол саботирует, говорит что не любит гптшный контент в выдаче.
01.02.24 19:13
0 1

Я подозреваю что тут дело не в том, что врачи не могли сами поставить диагноз, а ChatGPT смог.
В комментах ниже говорят, что
"можно поставить диагноз и проверить, подходит диагноз или совсем мимо. Если подходит, практически всегда есть специфическое обследование и анализы, проверяем на них. Не совпало - ищем дальше."

Тут скорее всего дело не в том, что врачи не могли сами поставить диагноз, а в желании, в ответственности и в человеческом факторе.
Какая ответственность у ChatGPT за неправильный диагноз? Полный ноль, вообще никакой ответственности. А у врачей ответственность есть, и может вообще ну его нафиг все эти диагнозы и обследования, дома футбол, жена и котлеты.
01.02.24 14:29
2 2

А у врачей ответственность есть, и может вообще ну его нафиг все эти диагнозы и обследования, дома футбол, жена и котлеты.
И какую ответственность понесли эти 17 врачей, которые очевидно ставили неправильные диагнозы? (Ну может кто-то из них честно говорил "а хрен его знает", но это вряд-ли)
01.02.24 14:42
1 3

И какую ответственность понесли эти 17 врачей, которые очевидно ставили неправильные диагнозы? (Ну может кто-то из них честно говорил "а хрен его знает", но это вряд-ли)
Наверняка никакую. Просто потому, что не за что было ее нести, они просто не разбирались дальше.
И еще может просто физически нет времени, типа а фиг его знает- следующий!
01.02.24 14:46
0 0

Какая ответственность у ChatGPT за неправильный диагноз? Полный ноль, вообще никакой ответственности
какая тут ответственность? Просто не давали направление на мрт, вот и не могли поставить диагноз. Видимо симптомы были не характерными или заболевание редкое.
01.02.24 14:49
0 0

Просто не давали направление на мрт, вот и не могли поставить диагноз.
Я про это и говорю- не разбирались дальше, предпочли остановиться.
01.02.24 15:20
0 0

Не, я про другое. Вот у меня болят локти, я бегаю по врачам, а потом оказывается проблема в мозжечка. Кто будет проверять мозг? Начнут с суставов.
01.02.24 15:37
0 0

Начнут с суставов.
Вот именно, что начнут. Начнут, а не остановятся на суставах и скажут, что не могут поставить диагноз.
01.02.24 16:51
0 0

Так и действовали. Перебором специалистов. Три года вполне нормальный срок. Никакой боязни ответственности.
01.02.24 19:30
0 0

Так и действовали. Перебором специалистов. Три года вполне нормальный срок. Никакой боязни ответственности.
Как это "Так и действовали", если они по итогу диагноз так и не поставили? Ну конечно никакой боязни ответственности, ведь они не лечили, а лишь перебирали специалистов.
01.02.24 20:03
0 0

Ну вот так. Это же не какие нибудь терапевты. Это узкие специалисты. 17 штук, разных. Один даже помог, нашел проблему с небом и поставили какой то расширить. Да, три года. Еще лет пять и 20 специалистов и ребенка бы вылечили. Система так работает.
01.02.24 21:41
0 0

Да, три года. Еще лет пять и 20 специалистов и ребенка бы вылечили. Система так работает.
И этой системе, даже есть уже давно устоявшееся определение - "или ишак, или падишах"
01.02.24 23:44
0 1

Вот именно, что начнут. Начнут, а не остановятся на суставах и скажут, что не могут поставить диагноз.
Серьезно? Скажите, вы сами пробовли? Ибо мой опыт и опыт тех кого я знаю сугубо негативный в это вопросе. Пробуют 1-2 типовых сценария и ой все.
Даже могут что-то из лечения назначить, которое само собой не помогает. А потом еще одно. Вот только результата почему-то нет.
02.02.24 14:55
0 0

Сейчас надо пересмотреть Доктор Хаус и представить себе, что они просто все эти данные вводят в чатгпт.
01.02.24 14:05
0 1

Там одна из основных сквозных тем - что данных, зачастую, не хватает, и приходится, вопреки закону и этике, залезать к пациентам домой. Технологии обработки данных ничего в этом сюжете не поменяют.
01.02.24 16:35
0 1

Ну не скажите. Если комп затребует доп данные, то их могут и предоставить
03.02.24 13:53
0 0

- occulta spina bifida (осколочный спинальный дефект) и перетянутый позвоночник.

-скрытая spina bifida (расщепление позвоночника) и синдром фиксированного спинного мозга.
01.02.24 13:24
0 0

если воспринимать этот инструмент, как один из многих, упрощающих обобщение и выдачу предложений, учитывающих все факторы, не ожидая от него каких то прорывных и 100% верных диагнозов, то почему бы и нет?
то, что врач делает в голове (поиск совпадений по симптомам, поиск аналогичных случаев и т.д ) - эта задача, мне кажется лучше будет выполняться именно в автоматизированном виде, уж точно полнее, чем врачом...
01.02.24 13:18
0 5

ChatGPT поставил правильный диагноз
Забавно. Если бы она в Гугл "ввела всю информацию об обследованиях и все симптомы", то не исключено, что и в этом случае получила бы ссылку на правильный диагноз. И тогда бы "Гугл поставил правильный диагноз"? Правильный диагноз поставила доктор, которая "посмотрела снимки МРТ". А ChatGPT всего лишь подсказал хороший возможный вариант, как и положено продвинутому интерфейсу огромной базы данных.
01.02.24 13:15
1 6

Забавно. Если бы она в Гугл "ввела всю информацию об обследованиях и все симптомы", то не исключено, что и в этом случае получила бы ссылку на правильный диагноз. И тогда бы "Гугл поставил правильный диагноз"? Правильный диагноз поставила доктор, которая "посмотрела снимки МРТ". А ChatGPT всего лишь подсказал хороший возможный вариант, как и положено продвинутому интерфейсу огромной базы данных.
Гугл это поисковик, ничего он подсказать не может.

ChatGPT это не интерфейс базы данных.
01.02.24 13:32
2 3

Гугл это поисковик, ничего он подсказать не может.
Может.

ChatGPT это не интерфейс базы данных.
Это интерфейс пользователя базы данных, обеспечивающий передачу информации между пользователем-человеком и компьютерной базой данных. Так же, как и поисковая система.
01.02.24 13:54
4 5

Может. Это интерфейс пользователя базы данных, обеспечивающий передачу информации между пользователем-человеком и компьютерной базой данных. Так же, как и поисковая система.
Возможно это формально верно, но, имхо, не является значимым признаком, потому что с этой позиции можно все что угодно назвать «интерфейсом базы данных». Например, что такое сайт exler.ru - это интерфейс бла бла бла.
01.02.24 14:25
1 0

компьютерной базой данных
Это не база данных.
01.02.24 14:27
1 1

что такое сайт exler.ru - это интерфейс
Нет. 😄 Сайт exler.ru - это база данных. А интерфейс между вами и ней - браузер.
01.02.24 14:34
0 2

Нет. 😄 Сайт exler.ru - это база данных. А интерфейс между вами и ней - браузер.
А в чатгпт ты заходишь без броузера?
01.02.24 15:01
0 0

Это не база данных.
Что - не база данных? ChatGPT? Нет. Это интерфейс пользователя базы данных. Хотя, да, и база данных тоже.
01.02.24 15:01
3 0

А в чатгпт ты заходишь без броузера?
Разумеется. У меня с ним телепатическая связь.
01.02.24 15:07
0 1

Что - не база данных? ChatGPT? Нет. Это интерфейс пользователя базы данных. Хотя, да, и база данных тоже.
Хорошо, что такое база данных?
01.02.24 15:45
0 1

Разумеется. У меня с ним телепатическая связь.
Тогда, если быть последовательным в рамках твоей логики, интерфейсом является эта самая телепатическая связь.
01.02.24 16:02
0 0

Что - не база данных? ChatGPT? Нет. Это интерфейс пользователя базы данных. Хотя, да, и база данных тоже.
Нет, чатгпт это не база данных и не интерфейс базы данных. Обращаясь к интерфейсу базы данных (в базу данных), мы ожидаем по своему запросу получить запись, содержащуюся в базе данных. Чатгпт не выдает нам запись, содержащуюся в базе данных. Он создает новую запись. Да, на основе уже имеющихся данных, сгенерираванных людьми раньше. Но ведь и люди делают так же. Они генерируют новую информацию на основе уже имеющейся информации, сгенерированной до них. И тоже с помощью нейронной сети (который они почему-то называют "мозгом"), обученной на этой информации в течение многолетнего периода обучения. Вы же не будете называть нас, людей, "интерфейсами к базе данных". Хотя кого-то так и хочется так обозвать!
01.02.24 16:51
0 3

Да вы правы. Именно по этому я и назвал его "продвинутым". Ну хотите - пусть будет "суперпродвинутым". Он, в отличие от поисковика, способен не просто извлечь ответ на прямой запрос из базы, а при отсутствии данных в базе, скомпилировать его из данных в смежных областях, а при получении положительного отзыва - сам может записать этот ответ в свою базу.
01.02.24 17:30
2 1

Технически - интерфейс отдельно, но обычные люди об этом не знают, потому что - зачем? Ответ произвел ChatGPT, а уж каким образом он был доставлен юзеру - для огромного большинства дело десятое.
01.02.24 19:43
0 2

Ответ произвел ChatGPT, а уж каким образом
Факт. Да, собственно, мой пост если и касался технической стороны, то вскользь. Просто у некоторых шилом в попе всем доказать, что они лучше меня знают, что такое "база данных" и "интерфейс". А про что там был сам пост - десятый вопрос. ☹️
01.02.24 21:29
1 2

Просто у некоторых шилом в попе всем доказать, что они лучше меня знают, что такое "база данных" и "интерфейс".
02.02.24 02:11
0 1

А в чатгпт ты заходишь без броузера?
Могу и без.
02.02.24 14:58
0 0

Как мне кажется, в конкретном случае проблема в другом.
Никто в развитой стране с доказательной медициной не запихнёт пациента просто так в условный МРТ - слишком дорого.
Если в "методичке" будет прописано - запихните в МРТ, то запихнут. А так нет.
Только вот такая система хорошо работает на больших числах, на статистике.
А отдельному пациенту может и не повезти.
01.02.24 13:15
2 6

Ой вей, в развитой стране, запихнуть в МРТ - дешевле, чем потратить полчеловека-часа на разговор с пациентом.
01.02.24 23:29
0 1

Помню лет 10 назад бегал по врачам по всему Киеву, пытаясь выяснить причину диких болей и странной шишки на спине, чуть ниже плеча. Что только не говорили: от разрыва связок плеча до "тебе намяли при массаже". В конце концов одному доктору наконец-то пришла в голову идея - сделай анализ крови. Анализ показал превышение реактивного белка в 50 раз и до доктора дошло, что дело не в массаже, а в активном бактериальном процессе. В итоге наконец-то попал к нормальному хирургу, который пощупал шишку и сразу сказал - это гнойник, надо резать.
01.02.24 13:00
0 5

>>>доктору наконец-то пришла в голову идея - сделай анализ крови.

Похожие проблемы были -- с постановкой диагноза и лечением. Приходилось самому лезть в статьи и врачам (аккуратно и вежливо, чтобы, не дай бог, не задеть их самомнение) предлагать анализы, диагноз, и лечение. При этом думал, какого должно быть несчастным людям, у которых нет биохмического образования. Или вообще никакого образования. Наверное, к гомеопатам идут.
01.02.24 13:25
1 4

какого должно быть несчастным людям
Вы, наверное, имели в виду «какого хрена»? 😉
01.02.24 13:40
0 4

"Виктор Багров в исполнении Виктора Сухорукого".
01.02.24 14:01
0 2

"Виктор Багров в исполнении Виктора Сухорукого".
Тогда уж: «…Виктора Багрого в исполнении Виктора Сухорукого».
01.02.24 14:15
0 2

"Роль Виктора Багрого в исполнении Виктора Сухорукого" ROFL.
01.02.24 14:23
0 1

Я тут недавно спрашивал ChatGPT один простой расчёт по физике. Он выдал мне число. Мне оно показалось подозрительным.
Потом я задал ему этот же вопрос, но только с другим вариантом решения, с другой стороны. Он выдал другое число, на этот раз уже правильное.
Я спросил, а как же так, что на одну и ту же задачу у него 2 разных ответа? Он просто извинился и всё.

Я это к чему. Все эти рассказки про то, что ChatGPT кому-то там что-то правильно рассказал- это всё ни о чём, во всяком случае пока. Потому что на один такой удачный случай есть очень много неудачных.
01.02.24 12:48
2 15

С точными расчётаии у таких моделей всё плохо, а с анализом большого количества разнообразной информации и поиском скрытых взаимосвязей намного лучше, а это хорошо подходит медицине.
01.02.24 13:12
0 9

Вычисления и постановка диагноза - задачи разного рода. С вычислениями у OpenAI GPT вообще всё не очень хорошо.
01.02.24 13:13
0 2

С точными расчётаии у таких моделей всё плохо
Да там была формула перемножить три числа, а не какой-то сложный точный расчёт.
01.02.24 13:30
0 0

Вычисления и постановка диагноза - задачи разного рода.
Элементарная физика и простые вычисления- там однозначный и единственный ответ.
Если пока что ChatGPT не может с первого раза вычислить простую формулу из трёх чисел, то вы доверяете ему в таком несравненно сложном деле, как постановка диагноза, где переменных несравнимо больше?
01.02.24 13:34
0 3

Элементарная физика и простые вычисления- там однозначный и единственный ответ.
Для человека, знакомого с темой.
LLM - они вообще не о том, а о том, чтобы предсказать следующий наиболее вероятный token в последовательности.
01.02.24 13:43
0 9

Вычисления и постановка диагноза - задачи разного рода. С вычислениями у OpenAI GPT вообще всё не очень хорошо.
Ну как и у человеческого мозга не все хорошо с быстрыми и точными вычислениями в уме. ИИ можно попросить вызвать внешнюю функцию через API для сложных вычислений. И это великолепно работает.
01.02.24 14:45
0 2

Я смотрела у Осетинской интервью с ребятами, которые всем этим занимаются и на острие скандала с ChatGPT рассказывали про все вот это. Так вот там упоминалось, что вычисления сложны для AI. Я, если честно, не совсем поняла почему. Там упоминалось сложение (или умножение?) в столбик. Типа пока AI это не умеет, так как вычисления надо делать не слева направо, а справа налево.
01.02.24 16:18
0 1

Если пока что ChatGPT не может с первого раза вычислить простую формулу из трёх чисел, то вы доверяете ему в таком несравненно сложном деле
Доверять не обязательно. Можно и проверить! Однако "получить разумное мнение" - почему нет? Особенно, учитывая то, что другие эксперты в область оказались бессильны В данном случае "разумное мнение" особенно ценно именно потому, что постановка диагноза гораздо сложнее простых формул - сложность задачи просто превысила возможности жалких человеческих мозгов.
01.02.24 16:57
0 0

Особенно, учитывая то, что другие эксперты в область оказались бессильны
Бессильны в каком смысле?
В смысле что испробовали все возможные варианты и уже не знали что дальше предпринять, или в смысле что просто не делали что можно было сделать и предпочли не ставить диагноз и не продолжать искать варианты?
01.02.24 17:21
1 0

... ChatGPT не может с первого раза вычислить простую формулу из трёх чисел, то вы доверяете ему в таком несравненно сложном деле, как постановка диагноза, где переменных несравнимо больше?
Ещё надо не забывать, что его цель ― удовлетворить пользователя. Он может выдать откровенную чушь, если не может найти правильный ответ.
01.02.24 19:13
0 1

Он просто извинился и всё.
"Не прокатило..."
01.02.24 19:57
0 3

вычисления сложны для AI.
Ну так это также как и с человеком : покажи столбик цифр и попроси умножить их, особенно если столбик разбит на два или больше фрагментов текста. Вот для этого и существует вызов внешних функций которые делают все работу и передают результат назад для конечного анализа. А вот если в большом отчете есть разбросанные цифры по теме, то ИИ вполне не плохо справляется с работой сам. Последние модели кстати уже могут обрабатывать структурированные данные особенно в JSON. Это все развивается и меняется очень быстро
02.02.24 08:27
0 0

Ещё надо не забывать, что его цель ― удовлетворить пользователя. Он может выдать откровенную чушь, если не может найти правильный ответ.
Может выдать только если нету четких системных инструкций что делать если информации недостаточно. ИИ должен сказать что не может выдать ответ и попросить больше исходных данных. Это легко настраивается
02.02.24 09:58
0 0

Мальчика спасли, и это главное.
То, что с диагностикой у врачей беда, это и не секрет, увы.
01.02.24 12:46
1 1

Пока ЧатГПТ не начнёт говорить, что все болезни от нервов и экологии, прописывать гомеопатию, тайные методы лечения тибетских знахарей, которые от нас скрывает биг-фарма, и что Ковид-19 - всемирный заговор по контролю над массами и уменьшению населения - ему никто не будет доверять.
01.02.24 12:37
2 7

Проверял сам ChatGPT на сложных случаях - работает очень хорошо в случаях редких болезней с неясной симптоматикой, действительно хороший помощник врача, когда проблемы с постановкой диагноза.
01.02.24 12:33
1 9

Если сиптомы специфические, то, наверное, да.
01.02.24 12:35
0 2

Вот ровно наоборот. Лучше всего с разнообразной невнятной симптоматикой, как и в случае из статьи. По специфическим симптомам врачи сами неплохо справляются. Вот с неспецифическими намного сложнее, слишком большое количество вроде бы подходящих диагнозов. Особенно при сочетаниях разных болезней. Работает для пациента, который прошёл уже несколько обследований, не подтвердились несколько диагнозов и на руках много ни к чему вроде не подходящих данных, вот это всё вместе с осмотрами чатик очень хорошо умеет анализировать.
01.02.24 13:02
0 8

Работает для пациента, который прошёл уже несколько обследований
Еще напрягает, что разные врачи не доверяют анализам и обселдованиям друг друга, и все переделывают сами. Время только теряется. И в некоторых клиниках невозможно видеть одного и того же врача, их постоянно тасуют манагеры. Нет continuity, каждый врач тебя видит, как в первый раз. Что он/а там за 15 минут сможет понять, не знаю.
01.02.24 13:27
0 7

Еще напрягает, что разные врачи не доверяют анализам и обселдованиям друг друга, и все переделывают сами. Время только теряется. И в некоторых клиниках невозможно видеть одного и того же врача, их постоянно тасуют манагеры. Нет continuity, каждый врач тебя видит, как в первый раз. Что он/а там за 15 минут сможет понять, не знаю.
Это ты про какую страну пишешь?
01.02.24 13:58
0 0

Англия и Германия (с общественной страховкой). Если платить наличными или частной страховкой, то, конечно, что угодно.

В свое время 6 лет в Англии не мог получить дорогой драг стандартным путем (NHS, i.e. public insurance). Транскрипт из Америки, где давали дорогой драг, английские NHS-доктора не признавали. Потом, когда совсем приперло (не мог работать), заплатил 500 фунтов за частную консультацию и тесты и получил драг через месяц.
01.02.24 14:02
0 3

Еще напрягает, что разные врачи не доверяют анализам и обселдованиям друг друга, и все переделывают сами.
Россия. Всё точно так же. Обследование сердца (эхо-чего-то-там). Поликлиника по месту жительства сделала, покачала головой, направила в областной кардиоцентр. Тот снова сделал, покачал головой, отправил в федеральный центр. Тот снова сделал, изучил, сказал — всё намана! Всё по ОМС (общественная страховка по-вашему).

Но я считаю это правильным! Всегда можно ошибиться, недоглядеть, не заметить. Следующий врач не может безоглядно полагаться на добросовестность и квалифицированность предыдущего — может боком выйти. Да и пациенту лучше. Известно же, что надёжнее всего проверять и перепроверять. Уж вам-то, учоному, это должно быть известно.
02.02.24 10:57
0 1

Следующий врач не может безоглядно полагаться на добросовестность и квалифицированность предыдущего — может боком выйти
Из одной крайности -- в другую. Либо полностью доверять, либо полностью не доверять. Тест на иммунглобулин стандартный.
02.02.24 14:57
0 0

Ну, я не про всё. Анализы крови (на сахар, холестерин и тому подобное). Если и это всё повторяют, то да, маньячество.
02.02.24 15:19
0 0

Этих коррупционеров давно пора на свалку истории. Стараюсь как можно меньше зависеть от врачей. Вся эта фигня с минимальным чеком на пациента - лютый трэш!
01.02.24 12:25
9 2

Сразу видно по количеству минусов, что люди лечатся не в Украине. Не понимают нашей специфики))
02.02.24 15:27
0 0

Скоро всё будет наоборот: нужно будет бегать по врачам, чтобы они опровергли неправильный диагноз, который ставит ИИ.
01.02.24 12:23
2 17

Я уже постила это тут в соответствующей теме.

Я пыталась вспомнить название книги вроде как Куприна о том, как гимназисты били друг друга. (да, я признаю, что предельно тупо сформулировала вопрос, да и простой просмотр списка произведений авторства Куприна мне бы сразу дал ответ, но уж как есть, так есть).

После ответов, выданных ChatGPT, он у меня только для написания писем и постов в соцсети.

Но да, автор был отгадан сразу.

как называется книга где описывается как гимназисты в царское время били друг друга

Возможно, вы имеете в виду роман Александра Куприна под названием "Дети Арбата". В этой книге описывается жизнь московских гимназистов в конце XIX - начале XX века, в том числе их взаимоотношения, конфликты и даже дуэли. Однако, следует отметить, что главный акцент в романе делается не на физическом насилии, а на внутреннем мире персонажей. Если это не тот текст, который вы имеете в виду, уточните дополнительные детали, и я постараюсь помочь вам найти нужное произведение.

Такая книга, вероятно, может быть "Дни Турбиных" Александра Тургенева. В этой книге описываются события в российской гимназии в конце 19 века, где школьники участвуют в различных конфликтах и дуэлях.

Кажется, вы описываете книгу "Молодые годы князя Нежинского" Михаила Салтыкова-Щедрина. Это произведение входит в цикл "Сказки старого дуба" и рассказывает о жизни гимназистов в царской России, включая описания столкновений и драк между ними.

Кажется, вы описываете книгу "Азазель" Михаила Булгакова. В этой книге описана история гимназистов в царское время, которые играли в опасную игру под названием "Азазель". Игра заключается в том, чтобы ударить друг друга в лицо. Пожалуйста, уточните, если вы имеете в виду другую книгу.

Кажется, вы описываете книгу "Обыкновенное чудо" (или "Чудеса обыкновенные") Максима Горького. В этой книге описывается жизнь студентов гимназии в царской России, и одним из эпизодов является схватка гимназистов во время конфликта.

Возможно, вы имеете в виду книгу "Детство" Льва Толстого. В этом произведении описывается детство и юность главного героя, Николая Ильича Неклюдова, в гимназии. В романе есть сцены, где рассказывается о различных аспектах жизни гимназистов, включая их взаимоотношения и даже драки. Однако, если вы имеете в виду конкретную книгу или рассказ, уточните дополнительные детали, и я постараюсь вам помочь.

Возможно, вы имеете в виду книгу "Капитанская дочка" Александра Сергеевича Пушкина. В этом романе описаны сцены средневекового российского общества, включая гимназическую жизнь, дружбу и столкновения между учениками. Однако, важно отметить, что в реальности не все гимназисты в царское время били друг друга, и "Капитанская дочка" представляет собой художественное произведение, а не историческую документацию.

Могу предположить, что вы имеете в виду книгу "Золотой теленок" Ильи Ильфа и Евгения Петрова. В этой книге, написанной в стиле сатирической комедии, описываются различные аспекты жизни в Советском Союзе, включая сцены из школьной жизни. В одной из глав авторы описывают бойни между гимназистами в царскую эпоху.
01.02.24 12:21
3 3

гимназисты били друг друга.
Я про "Кондуит и Швамбрания" Льва Кассиля подумал сразу.
01.02.24 12:33
0 7

Был Long Read в Гардиане недавно на похожую тему, где ЧатГПТ придумывал цитаты из Пруста на ходу. И, когда его ловили, извинялся и тут же придумывал следующую.
01.02.24 12:38
0 4

Задал тот же вопрос copilot. Самое прикольное, что в качестве первого источника указан exler.ru.
01.02.24 14:11
0 1

Это там старшеклассники пуговицы отрывали первоклассникам (с вопросом -- "твоя пуговица?")
01.02.24 14:13
0 2

Я пыталась вспомнить название книги вроде как Куприна о том, как гимназисты били друг друга.
Мне на прошлой неделе потребовалось вспомнить некий факт из биографии шута Шико (персонажа "Графини де Монсоро" и "Сорок пять"). Скачивать книги было лень, и я подумал - а не спросить ли у ChatGPT? Дальше было ровно как в анекдоте про студента, который из всех билетов по биологии выучил только строение блохи - увидев в вопросе словосочетание "книги Александра Дюма", ChatGPT все ответы стабильно начинал начинал с "Трех мушкетеров". Иногда тактично добавляя, что Шико в "Трех мушкетерах" не упоминается.
01.02.24 14:28
0 4

Мне кажется, и у Куприна и у Кассиля было про пуговицы. Это судя по всему скрепы.
01.02.24 14:38
0 2

Короче, ChatGPT врет как дышит и даже не краснеет.
01.02.24 14:40
0 4

И большевики эти скрепы побороли! В СССР не было харассмента с пуговицами. Были дротики с иглами, которые втыкали в ж.
01.02.24 14:43
0 1

Не, ну это уже клевета! В моем эсесере не было никаких дротиков, они появились уже при капитализьме!
Пуговицы - были, но их не рвали.

Кстати о пуговицах. Я тут как раз на днях подумала, что мои дети не то что пуговицы пришивать не умеют, они нитку в иголку не вставят. Потому, что не надо. Я не помню, когда последний раз пуговицы пришивала. И это при том, что у меня они ежедневно в школу в рубашках ходят.
01.02.24 14:54
0 2

Я пришиваю время от времени. И даже дырки в джинсах зашиваю (ломает ехать в молл и покупать новые -- быстрее пришить).

Может, дети не такие агрессивные и не дерутся постоянно в школе? Как с этим в Англии?
01.02.24 15:08
0 1

В моем эсесере не было никаких дротиков
В моем - были. Лично разрабатывал продвинутые конструкции различной массы и поражающей силы. (Наиболее тяжелый вариант дротика, утяжеленный четырьмя спичками, считался anti-materiel и против живой силы противника не применялся.)
01.02.24 15:41
0 0

у меня был негативный опыт такого плана, где и ChatGPT и Bard не смогли помочь, а коллективный разум читателей exler.ru (спасибо Hipster😀) помог
01.02.24 15:56
0 2

утяжеленный четырьмя спичками, считался anti-materiel и против живой силы противника не применялся.
в моем военном городке применялся против живой силы (меня). Мною применялся против деревьев.
01.02.24 16:04
0 1

Может, дети не такие агрессивные и не дерутся постоянно в школе? Как с этим в Англии?
В целом - нормально все с этим в Англии, ты же жил в Лестере и видел тамошнюю гопоту, она же не из космоса забрасывается, а из детей вырастает, которые ходят в обычную английскую школу.
Но мои ходят в чушпанскую школу в дорогом районе, так что откровенной гопоты у них нет. Но тут как-то средний попал в переплет, но в сравнении с тем "как это бывает" это был детский лепет. Мне кажется, они и драться-то толко не умеют. Даже не знаю, надо ли мне по этому поводу горевать. Хотя друг другу иногда могут залепить затрещину в порыве братской любви.
01.02.24 16:09
0 2

а из детей вырастает, которые ходят в обычную английскую школу.
Я с ними имел дело, они приходили в 10-14 лет в университет; я им про гены и ДНКу рассказывал. Заметил, что дети намного лучше себя ведут, чем американские. Наверное, школьная форма обязывает. Драк при мне не устраивали.
01.02.24 17:13
0 1

Ну вот к тебе в универ тоже приходили небось ботаны, замотивированные на учебу, такие не дерутся.
01.02.24 19:19
0 1

Ну вот к тебе в универ тоже приходили небось ботаны, замотивированные на учебу, такие не дерутся.
их целыми классами водили, всех подряд.
01.02.24 20:49
0 0

(Наиболее тяжелый вариант дротика, утяжеленный четырьмя спичками, считался anti-materiel и против живой силы противника не применялся.)
Я не понимаю! Но ведь только с четырьмя спичками и можно сделать дротик! Спереди между ними вставляется игла, сзади — крестообразный стабилизатор, сложенный из бумаги. Всё это обтягивается ниткой, скотчем или изолентой.
02.02.24 10:46
0 1

Остроугольный бумажный треугольник, навернутый вокруг булавки с плоской головкой, гораздо легче. Втыкаясь в советскую школьную форму, такой дротик обычно не доходит до тела. В отличие от вашей конструкции, которая способна нанести весьма болезненный укол - особенно если промахнуться и попасть в девочку, на которой форма из гораздо менее толстой ткани. Хотя прицельная дальность, конечно, тем выше, чем тяжелее снаряд.
02.02.24 14:14
0 0

Да, это он! 😁
02.02.24 14:57
0 0

В отличие от вашей конструкции, которая способна нанести весьма болезненный укол - особенно если промахнуться и попасть в девочку, на которой форма из гораздо менее толстой ткани.
Или в то место девочки, где форма уже кончается.

Согласен, штука суровая и опасная. Но вашего варианта я из описания не понял. Не могли бы вы привести рабочие чертежи?
02.02.24 15:16
0 0

Макет Изделия.
05.02.24 12:36
0 0

Вон оно что. Спасибо.
05.02.24 14:09
0 0

Судя по пальцам и глазам на рисунках от ChatGPT и прочего ИИ, у него весьма специфическое представление о том. что такое здоровый человек.
А в качестве помощника при постановке диагноза он может быть весьма полезен, особенно в случае редких или экзотических болезней или синдромов.
01.02.24 12:20
3 6

Разве ChatGPT умеет рисунки генерировать?
01.02.24 12:55
0 0

... и прочего ИИ ...
01.02.24 13:02
2 1

Если говорить о сервисе под названием "Chat GPT" - да.
01.02.24 13:10
0 0

... и прочего ИИ ...
Для меня семантический смысл союза "И" всегда отличался от "ИЛИ", но, похоже, мы тут с вами расходимся. Ок.
01.02.24 13:31
1 1

Если говорить о сервисе под названием "Chat GPT" - да.
Если вы про возможность вызывать Dall-E непосредственно из онлайн-интерфейса ChatGPT, то как по мне, это примерно то же, что сказать, что Windows может работать с электронными таблицами.
Потому что Excel тоже написала Microsoft и Excel можно внутри Windows запустить.
01.02.24 13:36
0 0

Для меня семантический смысл союза "И" всегда отличался от "ИЛИ", но, похоже, мы тут с вами расходимся. Ок.
Если вы понимаете «и» как пересечение, то, очевидно, что множества «ChatGPT» и «прочий ИИ [помимо ChatGPT]» не пересекаются. И так же очевидно, что их пересечение не равно множеству «ChatGPT», поэтому ваш вопрос был некорректен. Ваш взаимно душный Капитан Очевидность.
01.02.24 13:37
0 0

Ваш взаимно душный Капитан Очевидность.
Вы, Капитан, очевидно не поняли о чем был спич.

Упрощу пример:
Судя по почерку Петя и Маша - левши.

Надеюсь теперь не нужно пояснять, что упоминание почерка в равной степени относится к обоим субьектам, а не только к одному.
01.02.24 13:47
1 0

Если вы понимаете «и» как пересечение
Нет, неверное предположение.

В данном случае "И" это объединение, а не пересечение.
Мы же не теорией множеств тут занимаемся, а просто комменты строчим.

Все гораздо проще:
- становитесь в угол девочки и мальчики.

Очевидно, что не ожидается увидеть в углу редких представителей истинного гермафродитизма.
01.02.24 13:56
0 0

Комменты, написанные jbroid и прочими представителями Homo Sapiens, не всегда отличаются смыслом и правильностью.
01.02.24 14:24
0 2

Комменты, написанные jbroid и прочими представителями Homo Sapiens, не всегда отличаются смыслом и правильностью.
Вооот, видите, не так уж и сложно.

И у jbroid комменты.
И у прочих представителей комменты.

А не как вы пытались перенести "комменты" (рисунки, то бишь) только на "прочих".
01.02.24 14:48
0 0

Вообще если подумать о том, что по сути нынешний ИИ еще в начинающей форме развития, то иногда становится страшно, что будет когда он развиться полностью
01.02.24 12:19
0 4

Вообще если подумать о том, что по сути нынешний ИИ еще в начинающей форме развития, то иногда становится страшно, что будет когда он развиться полностью
«Не так страшен ИИ как его агенты» 🙂
LLM может генерить безобидный текст на основании модели и дополнительных вводных данных. А вот так называемая агенты могут подсунуть вопрос о генерации кода на любом языке, скомпилировать и выполнить его и результат отдать назад для дальнейшего обучения и совершенствования модели. И таких агентов может быть несколько, которые будут решать задачку параллельно и очень быстро и они скорее всего добьются цели при определенных условиях. А задача может быть любая: написание новой игрушки, приложения для сервера, проникновения в защищенную систему например банка, управление любым типом оружия с удаленным управлением, и т.д. Так что здравствуй Skynet!
01.02.24 13:39
0 0

Я больше имел ввиду, что как бы фантасты не оказались правы и на каком то этапе развития ИИ научится мыслить самостоятельно и не решит, что все беды мира от людей и поэтому лучший способ решить все проблемы - избавится от их источника.
01.02.24 13:46
0 1

С чего там Скайнет в Терминаторе начал?
избавится от их источника.
01.02.24 17:08
0 0

Алекс, мы на днях удостоверились на примере вопроса по Photoshop, что ИИ может направить в нужном направлении (а может и не направить), при этом не действуя сознательно (18:9 это не 16:9). Т.е. пока это условный выстрел в небо.
01.02.24 12:17
0 1

Странно, что диагностика дожила до эпохи ИИ, а не была автоматизирована раньше.
Любая болезнь характеризуется определённым набором симптомов.
Зацените все это в базу данных и делайте поиск по ней. Очевидно же, что живой человек может не впомнить о какой-то редкой болезни. Вот база данных ему в помощь.
01.02.24 12:15
1 15

Автоматизацией постановки диагноза баловались еще в 90-е. Проблема в том, что контролировать полноту и правильность входящих данных не может никто, кроме лечащего врача. Парадокс - да?
01.02.24 12:21
0 2

Странно, что диагностика дожила до эпохи ИИ, а не была автоматизирована раньше. Любая болезнь характеризуется определённым набором симптомов.Зацените все это в базу данных и делайте поиск по ней. Очевидно же, что живой человек может не впомнить о какой-то редкой болезни. Вот база данных ему в помощь.
Так для этого и существует поисково-дополненная генерация (RAG) со связкой с LLM. Обычный поиск может выдать совсем не то или не объединить страницы разных документов в ответ на том уровне аргументации который требуется. OpenAI предоставила на днях модели разбора текста с 3000 измерений по каждому отрывку текста.
01.02.24 12:23
0 2

Я так понимаю, с точки зрения профана, что подобные системы (эвристические) создаются по определённым направлениям, имеют определённое построение и нуждаются в заполняемой вручную базе данных. ИИ вроде ChatGPT — система принципиально иного уровня: открытая и не скованная специализированной БД. Плюс совершенно новый уровень аналитических способностей, а без него вы из самой полной БД ничего не получите, потому что надо сопоставлять. Короче, как программируемый процессор супротив жёсткой логической схемы.

Upd. О! Пока печатал, frost умнее сказал.
01.02.24 12:24
1 3

Слушал передачу с врачом-онкологом, который осуществляет разметку для ИИ гистологических образцов именно с этой целью - обучить ИИ определять рак у пациентов. Самое удивительное, что по его словам, было несколько случаев, когда ИИ определяет возможность наличия раковых клеток у образцов, которые не имеют внешних признаков, по которым проводилось обучение. При более глубокой проверке информация подтвердилась. Т.е., получив массив информации, ИИ определил какие-то второстепенные признаки, которые могли бы свидетельствовать о наличии рака и дал положительный результат.
01.02.24 12:37
0 9

Автоматизацией постановки диагноза баловались еще в 90-е. Проблема в том, что контролировать полноту и правильность входящих данных не может никто, кроме лечащего врача. Парадокс - да?
А в чем парадокс? ИИ в данном случае инструмент для врачей, а не их замена.
Это ограничение и сейчас существует, без всякого ИИ. Тот же врач без микроскопа гистологическое исследование не проведет, однако парадоксом это не называют.
01.02.24 12:52
1 6

Странно, что диагностика дожила до эпохи ИИ, а не была автоматизирована раньше.
Классический рассказ uncle_doc (А. Водовозова) о том, как он был биорезонансным диагностом.
01.02.24 13:24
0 1

Автоматизацией постановки диагноза баловались еще в 90-е.
С конца 60-х.
01.02.24 13:48
0 1

Проблема в том, что контролировать полноту и правильность входящих данных не может никто, кроме лечащего врача.
Я про работу врача и говорил. Про его инструмент работы.
01.02.24 14:26
0 0

Кто это был? Есть у меня знакомые онкологии- покажу, обсудим
01.02.24 21:55
0 0

Как нейросети находят опухоли и помогают патологоанатомам
Вот, нашел. Правда это врач паталогоанатом, но подкаст именно об искусственном интеллекте в медицине, в том числе и онкологии
02.02.24 07:41
0 0

Страсти какие.
01.02.24 12:12
0 2

Страсти какие.
Да вообще капец. ChatGPT одному человеку поставил правильный диагноз! Интересно, скольким он поставил неправильный?
01.02.24 12:20
6 11

Ошибка выжившего. 😄
01.02.24 12:21
0 11

В подобных случаях самая большая проблема именно с постановкой диагноза. Ошибся чатик, вообще не проблема. Сначала врач проверит, подходит диагноз или совсем мимо. Если подходит, практически всегда есть специфическое обследование и анализы, проверяем на них. Не совпало - ищем дальше.
01.02.24 13:08
0 8

В подобных случаях самая большая проблема именно с постановкой диагноза. Ошибся чатик, вообще не проблема. Сначала врач проверит, подходит диагноз или совсем мимо.
А что мешает тоже самое сделать самим врачам, без этапа чатика? Поставить диагноз и проверить, подходит диагноз или совсем мимо?
01.02.24 13:49
0 1

А что мешает тоже самое сделать самим врачам, без этапа чатика? Поставить диагноз и проверить, подходит диагноз или совсем мимо?
Никто из 17 врачей не смог это сделать. Что мешало? Вероятно ограниченность человеческого мозга. Мы просто не в состоянии держать в голове столько информации и возможных взаимосвязей.
01.02.24 14:23
0 2

Вероятно ограниченность человеческого мозга
Ограниченное время, дающееся на консультацию. У врача по правилам зачастую 15 (or 30) минут на консультацию, он не может сидеть делый день и по статьям лазить. B 99% случаев (15-30 минут на консультацию) такой подход работает. Врач просто берет самое распространенное лечение-диагноз, и все.
01.02.24 14:28
0 2

Никто из 17 врачей не смог это сделать. Что мешало? Вероятно ограниченность человеческого мозга.
А может мешало отсутствие желания (или возможности) разбираться? Вон Hed-ge-Hog говорит, что
"Сначала врач проверит, подходит диагноз или совсем мимо. Если подходит, практически всегда есть специфическое обследование и анализы, проверяем на них. Не совпало - ищем дальше."

17 врачей не могли поставить диагноз и проверить правильный он или нет, а если нет, то идти дальше? Т.е. они выбрали просто вообще ничего не ставить.

Мы просто не в состоянии держать в голове столько информации и возможных взаимосвязей.
Никто не требует 100% попадания с первого раз.
01.02.24 14:35
2 0

Согласен. Более корректно будет "ограниченность человеческого мозга для принятия решения в ограниченный промежуток времени". В том же "Докторе Хаусе" они по каждому пациенту консилиум собирают, долго обсуждают, спорят и не один день!
01.02.24 14:38
0 3

В том же "Докторе Хаусе" они по каждому пациенту консилиум собирают, долго обсуждают, спорят и не один день!
В Германии в "моем" департаменте тоже собирают, но не заметил, чтобы это помогало 😄.

За нестандартными решениями надо лезть и читать историю на 50 страниц, это невозможно сделать за 15 минут. Moжет, нужен ИИ, который может прочитать историю за врача и сделать короткое екзекютив саммари и обозначить, на основании данных, что стОит пробовать, а что уже опробовано.
01.02.24 14:45
0 1

Один врач в принципе не может знать все заболевания, для этого существуют специалисты. Некоторые заболевания проявляются самыми разнообразными, а, главное, неспецифическими жалобами. Вот и начинаются проверки на всё подряд, начиная с самого распространённого и дальше в дебри. Так и ходит пациент кругами от специалиста к специалисту, пока кто-то не догадается, какой диагноз правильный или, что чаще, просто перебором возможных вариантов не дойдут до правильного. Или вообще не доберутся до правильного.
01.02.24 16:47
0 2

Один врач в принципе не может знать все заболевания, для этого существуют специалисты.
А кто про одного врача говорит? Вон их аж 17 было.

или, что чаще, просто перебором возможных вариантов не дойдут до правильного. Или вообще не доберутся до правильного.
Ну так перебором возможных вариантов- их же надо перебирать! Т.е. должен быть процесс. А не просто сказать, что не можем поставить диагноз.
Я поэтому и интересуюсь, а что мешает тоже самое сделать самим врачам, без этапа чатика?
И если, как вы говорите, врачи сами не знают какой из вариантов правильный, как они могут принимать во внимание какой-то вариант, который выдал фиг-пойми-какой-то ChatGPT?
01.02.24 17:03
2 0

Повезло этим поц-иентам.
01.02.24 20:50
0 0

Никто не говорил, что в случае из статьи не перебирались разные варианты. Чатик может просто подкинуть идею, до которой врачи не додумались.
02.02.24 08:39
0 0

В том же "Докторе Хаусе" они по каждому пациенту консилиум собирают, долго обсуждают, спорят и не один день!
К доктору Хаусу, согласно сюжета, попадают как раз такие случаи, как описанные. Когда перед этим десяток врачей бились-бились, да об стенку разбились. Хаус и выступает в роли этого самого ЧатГПТ. При этом вымышленная больница Принстон-Плейнсборо ещё и учебная, прообразом её послужил Принстонский университетский медицинский центр. В ней исследуют сложные медицинские случаи, являющиеся источником накопления новых знаний. За возможность попасть к Хаусу бьются, и руководством отбираются (за редким исключением вроде правительственных интересов) те, что представляют научный интерес, как это ни цинично звучит. Вот и получается возможность так усиленно заниматься диагнозами, недоступная для 99,99% людей.

Внедрение обсуждаемых ИИ позволит обеспечить Хаусами каждую больницу!
Я совсем не сведущ в ИИ-художествах. Здесь надо бы картинку, сращивающую Грегори Хауса с Чат ГПТ.
02.02.24 10:29
0 1
Теги
Сортировать по алфавиту или записям
BLM 21
Calella 143
exler.ru 272
авто 442
видео 3997
вино 359
еда 500
ЕС 60
игры 114
ИИ 29
кино 1581
попы 191
СМИ 2759
софт 930
США 132
шоу 6