ИИ стал частью повседневности. Но почему он вызывает столько страхов? Новое исследование TÜV даёт ответ.
Как ИИ меняет жизнь в Германии: исследование TÜV. Фото: pexels.com

Как ИИ меняет жизнь в Германии: исследование TÜV показало повсеместное внедрение и скрытые риски.

Революция ИИ наступила быстро: сегодня им пользуются в школах и офисах для решения повседневных задач.

Однако масштабное исследование TÜV предупреждает: каждый второй в Германии уже столкнулся со страхом — кражей личных данных и безупречными цифровыми подделками.

Читайте также: Бюджет по шаблону ИИ в Германии: как начать копить больше.

Как ИИ меняет жизнь в Германии: исследование TÜV

Для миллионов людей в Германии, особенно молодежи, искусственный интеллект стал обычным делом.

Его используют 65% населения, а среди молодых людей от 16 до 29 лет — целых 91%. Для них это так же привычно, как телефон.

Чаще всего ИИ помогает искать информацию, писать тексты, придумывать идеи или переводить. Самый популярный инструмент — ChatGPT, но у него уже есть сильные конкуренты, например, от Google и Microsoft.

Но есть и большие опасения:

  • Кража данных. Каждый второй боится, что его личная информация может попасть в чужие руки. И часто эти опасения оправданы — люди иногда по незнанию загружают в ИИ даже свои пароли.
  • Обман и фейки. Более половины опрошенных уже принимали созданный ИИ контент (особенно видео) за настоящий. Такие подделки (дипфейки) становятся настолько убедительными, что отличить правду от вымысла почти невозможно. Из-за этого люди начинают меньше доверять информации в интернете.
  • Главная мысль: ИИ в Германии стремительно вошёл в жизнь, особенно молодёжи, но его широкое использование сопровождается растущими страхами о безопасности данных и правдивости информации.

Читайте также: Новая угроза онлайн-шопинга в Германии.

Как ИИ меняет жизнь в Германии: исследование TÜV: правила обращения с ИИ

Евросоюз создал центральный закон об искусственном интеллекте (EU AI Act), но о нём знает лишь небольшая часть населения. При этом люди хотят чётких правил: большинство требует введения обязательного регулирования ИИ (83%) и маркировки созданного им контента (89%). Также широко поддерживается идея независимой проверки таких систем организациями вроде TÜV (80%).

Чтобы безопасно пользоваться ИИ, важно следовать простым правилам. Специалисты предупреждают: никогда не вводите в чат-боты личные данные — пароли, адреса или другую конфиденциальную информацию, — так как они могут быть сохранены и использованы во вред.

Любой контент, особенно вызывающий сильные эмоции, нужно тщательно проверять перед тем, как делиться им, потому что дипфейки и ИИ-тексты часто кажутся обманчиво правдоподобными.

Распознать такой контент можно по характерным признакам. На изображениях и видео стоит обращать внимание на неестественно гладкие лица, запаздывающие движения или ошибки в свете и тенях. В текстах тревожными сигналами служат чрезмерные эмоции, отсутствие источников, внутренние противоречия или призывы к быстрым действиям.

Самый надёжный способ защиты — сравнивать информацию, использовать несколько проверенных источников и сохранять критический взгляд. Это помогает не распространять фейки и ответственно использовать возможности ИИ.

Читайте также: Правительство Мерца приостановило программы ИИ-обучения.

Обложка: pexels.com