ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Чиновники решили взяться за очередную категорию работников
  2. «Просят помощи». Работников крупного завода временно переводят на МАЗ — узнали, что происходит
  3. «Меня в холодный пот бросило». Беларуска рассказала «Зеркалу», как забеременела в колонии и не знала об этом почти полгода
  4. «Белавиа» планирует летом увеличить количество рейсов в курортную страну, популярность которой у беларусов растет с каждым годом
  5. Мужчина получил переводы из-за границы — об этом узнали налоговики и пришли с претензиями. Был суд, где стало известно, кто «слил» данные
  6. В Минтруда пригрозили «административкой», а в некоторых случаях — и вовсе «уголовкой». Кто и за что может получить такое наказание
  7. Марина Адамович на свободе
  8. Для рынка труда предлагают ввести ужесточения. Работникам эти идеи вряд ли понравятся — увольняться может стать сложнее
  9. Придумал «Жыве Беларусь» и выступал против российской агрессии. Почему его имя в нашей стране известно каждому — объясняем в 5 пунктах
  10. «Модели, от которых болят глаза». Стилистка ответила на претензии министра о том, что беларусы не берут отечественное
  11. Трое беларусов вернулись с большой суммой из поездки в Россию. Дома их ждали спецназ и ГУБОПиК
  12. «Челюсть просто отвисла». Беларус зашел за бургером в Лос-Анджелесе и встретил известного актера, только что получившего «Оскар»
  13. Вьетнамец спустился в метро Минска и удивился одной общей черте всех пассажиров
  14. «Грошык» опубликовал список «недружественных» стран, чье пиво пропадет из продажи. В Threads удивились отсутствию одного государства
  15. Уголовное дело возбудили против беларуса, который заявил, что силовики «трясут» его семью из-за лайка, поставленного десять лет назад


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.