GPT (Generative Pre-trained Transformer) — модель машинного обучения, которая способна генерировать текст. Текст она берёт из огромных баз данных и после того, как нейросеть умнеет, она начинает работать на человеческом языке. При этом отвечает на конкретные запросы, а не выдаёт готовую информацию по ключевым словам, как это делают поисковики.
"Если в методах лечения или диагнозе ошибётся человек — это человеческий фактор. Но если ошибётся нейросеть, то как следует к этому относиться людям?"
В подавляющем числе поликлиник страны сидят такие врачи, что нейросеть чуть подучить пару-тройку лет и она заменит их с легкостью и люди еще спасибо скажут. А если еще внедрить уже имеющиеся "анализаторы" снимков и анализов, то вообще.
Ещё в 2017-м году мне подруга-врач рассказывала, что они используют СПППР - системы поддержки принятия решений врача. Это такая программа, куда врач вводит симптомы и ему выдаются возможные диагнозы и способы лечения. https://webiomed.ru/blog/obzor-rossiiskikh-sistem-podderzhki-priniatiia-vrachebnykh-reshenii/
А что бы вы сказали, если вдруг диагноз нейросеть выставит не правильно и умрёт ваш близкий человек? Вы бы 25-30$ заплатили за консультации врачи или ИИ?
Лично я с вами согласен. Но тут скорее речь об общественности. Кто-то против вышек 5g, кто-то против самолётов. А если люди будут лишаться работы, недовольные появятся обязательно.
Радоваться должны , что ИИ уже улучшает медицину , а не бурчать. Ну и понятно , всё новое люди не понимают
Врач отвечает за диагноз и может быть привлечен в том числе к уголовной ответственности.. За ошибку ии кому предъявлять? Разработчику чипов?
Ну и второе ии клятву Гиппократа не давал. Остановите планету пусть ии пока поживет где то в другом месте.
У врачей тоже ответственность ограничена, да и врачи тоже люди которые допускают ошибку. Тут не одна клятва не спасет.