Поиск

Нельзя верить ИИ слепо, лучше пользоваться и другими источниками информации.
Ученые из бизнес-школы SBS в Цюрихе установили, что использование искусственного интеллекта приводит к снижению когнитивных нагрузок и ухудшению способности к критическому мышлению. При этом, как сообщает «Газета.Ru», у нейросетей есть слабые места, из-за которых им нельзя слепо верить.
– Применять информацию, полученную от ИИ, нужно обдуманно, подвергая ее сомнению. Например, существует проблема ограниченности данных, на которых обучаются нейросети, порой они не всегда достоверны и актуальны. В прошлом году Google уже критиковали за неверные и даже опасные советы, которые выдавал их ИИ. Кроме того, ИИ может страдать от когнитивных искажений, поскольку обучается на данных, созданных людьми, а они могут содержать предвзятость (например, личное мнение человека). Еще существует проблема «галлюцинаций» – это когда нейросеть генерирует информацию, не имеющую связи с реальностью, – отметил эксперт в области машинного обучения и искусственного интеллекта Иван Серов.
По его словам, нейросети также не всегда способны учитывать контекст или интерпретировать тонкие нюансы человеческой речи, такие как сарказм, что может привести к недопониманию или искажению информации.
Чтобы не потерять способность критически мыслить, лучше ограничить время использования чат-ботов на базе ИИ и писать не более 10–15 запросов в день. Также важно запрашивать у нейросети все источники, на основании которых она выдает ответ.
Серов также советует расширять площадки потребления информации – смотреть видео по теме, подкасты экспертов, почитать статьи, написанные специалистами.

Нельзя верить ИИ слепо, лучше пользоваться и другими источниками информации.
Ученые из бизнес-школы SBS в Цюрихе установили, что использование искусственного интеллекта приводит к снижению когнитивных нагрузок и ухудшению способности к критическому мышлению. При этом, как сообщает «Газета.Ru», у нейросетей есть слабые места, из-за которых им нельзя слепо верить.
– Применять информацию, полученную от ИИ, нужно обдуманно, подвергая ее сомнению. Например, существует проблема ограниченности данных, на которых обучаются нейросети, порой они не всегда достоверны и актуальны. В прошлом году Google уже критиковали за неверные и даже опасные советы, которые выдавал их ИИ. Кроме того, ИИ может страдать от когнитивных искажений, поскольку обучается на данных, созданных людьми, а они могут содержать предвзятость (например, личное мнение человека). Еще существует проблема «галлюцинаций» – это когда нейросеть генерирует информацию, не имеющую связи с реальностью, – отметил эксперт в области машинного обучения и искусственного интеллекта Иван Серов.
По его словам, нейросети также не всегда способны учитывать контекст или интерпретировать тонкие нюансы человеческой речи, такие как сарказм, что может привести к недопониманию или искажению информации.
Чтобы не потерять способность критически мыслить, лучше ограничить время использования чат-ботов на базе ИИ и писать не более 10–15 запросов в день. Также важно запрашивать у нейросети все источники, на основании которых она выдает ответ.
Серов также советует расширять площадки потребления информации – смотреть видео по теме, подкасты экспертов, почитать статьи, написанные специалистами.