Портфоліо до проекту "штучний інтелект" Бойко Аліни

Матеріал з Вікі ЦДУ
Перейти до: навігація, пошук


Тема статті

Зворотній бік AI. Чому штучний інтелект загрожує людству, і як зарадити цій небезпеці


Опис проблеми

Небезпека для цифрового світу

В чому полягає небезпека для цифрової сфери? Штучний інтелект, потрапивши в руки зловмисників, може знизити перешкоди для проведення руйнівних хакерських атак.

Hacker (1).jpg

«Розумні» технології можуть виявити критичні помилки програмного забезпечення та швидко вибирати потенційних жертв для фінансових злочинів. Більше того, АI може сприяти використанню соціальної інженерії як методу атаки. «Інформація з інтернету про ту чи іншу людину використовується для автоматичного створення шкідливих сайтів/посилань чи електронних листів, на які, швидше за все, відповідатиме потенційна жертва, адже вони надходитимуть від справжніх людей та імітуватимуть їхній стиль спілкування», – прогнозує звіт.

Подальший розвиток AI, на думку авторів дослідження, може призвести до того, що переконливі чат-боти зможуть долучати людей до тривалих діалогів, таким чином збільшуючи рівень довіри до себе, або навіть набувати вигляду реальних людей у відеочаті.

Роботи-вбивці Іншою небезпекою, яка з’являється на горизонті, є можливість атаки на фізичні об’єкти. Автори звіту попереджають, що AI може проникати у системи безпілотних автомобілів, управляти ними та призводити до аварій. Ще одним прикладом може бути використання «армій дронів», які за допомогою технології розпізнавання обличчя можуть вбивати людей, наголошується у дослідженні.

У звіті описується сценарій, в якому робот-прибиральник офісів на ім’я SweepBot, оснащений бомбою, проникає у міністерство фінансів Німеччини та «губиться» серед інших машин такого ж виробника. Робот-зловмисник спочатку поводить себе природньо – збирає сміття, підмітає коридори, доглядає за вікнами, аж поки програма для розпізнавання обличчя не зафіксує певну особу (міністра) і не запустить пусковий механізм.

Robot-thinks.jpg

Прихований вибуховий пристрій вбиває міністра та спричиняє поранення працівників, які стояли неподалік – так закінчується науково-фантастична історія-передбачення, викладена в звіті.

Фейк як нова реальність На політичному фронті штучний інтелект може використовуватися як інструмент спостереження, створення більш цілеспрямованої пропаганди та активного розповсюдження дезінформації. Держави можуть використовувати автоматизовані платформи спостереження для придушення інакомислення. Штучний інтелект може надсилати користувачам персоналізовані повідомлення, щоб вплинути на їхню поведінку під час виборів.

AI у руках зловмисників відкриватиме нові можливості для розповсюдження фейкових новин. Використання досягнень в області обробки зображень і звуку забезпечать створення високореалістичних відео з державними діячами, які нібито роблять провокаційні заяви. Більше того, створення та публікація фейкових новин може стати автоматизованим. Вже сьогодні роботи часто пишуть новини зі спортивних подій, а також роблять публікації на основі фінансових звітів.

«Виробництво та поширення високоякісних підробок дешевшає, а значить, такі «синтетичні мультимедіа» можуть скласти значну частку контенту засобів масової інформації та інформаційної екосистеми в цілому», – пишуть дослідники.

Вихід є? Автори звіту не пропонують точних сценаріїв дій, за яких штучний інтелект не зможе стати потужною зброєю в руках злочинців та маніпуляторів. Втім, аналітики дають кілька важливих порад, як протидіяти потенційній небезпеці.

По-перше, на думку авторів звіту, політики повинні співпрацювати з розробниками технологій та спільно визначити, де існують загрози неправомірного використання AI. По-друге, розробники технологій, усвідомлюючи «подвійне призначення» штучного інтелекту, мусять сприяти ефективному використанню технології та вживати заходів, що запобігають шкідливому використанню AI.

По-третє, автори звіту рекомендують працювати над розширенням кола зацікавлених сторін, які можуть сприяти попередженню та пом’якшенню ризиків неправомірного використання AI. Йдеться про підтримку громадянського суспільства, експертів з питань національної безпеки, дослідників AI та питань кібербезпеки, підприємств, що пропонують продукти з AI, етиків і так далі.

Автори доповіді визнають, що найкращим способом протидії AI є… AI. Водночас вони зауважують: “Захист, що базується на штучному інтелекті, не є панацеєю, особливо коли ми дивимося за межі цифрового світу».

Позитив Негатив
AI досягає надзвичайної точності. зависання в ситуацiї розмитої невизначеностi, можливiсть збою (хоча його можна вiднести до розряду “хвороб”, що їм пiдлягає i людина, наприклад, зараження вiрусом, утрата пам’ятi i т.д.);
АІ оперує величезною кількістю даних. непристосованість до виконання незапрограмованих фізичних дій (затримка злочинця, оперативний пошук, не передбачувана ситуація);

Блог до проекту

[1]

Мультимедійна презентація

[2]

Календар подій проекту:

Google Календар [3]

Опитування до проекту

Google Форми [4]

Фотоальбом до проекту

Google Фотознімки [5]

Спілкування між учасниками проекту

  • Чат
  • Форум
  • Спільнота на базі соціальних мереж
  • Skype
  • Telegram
  • Viber
  • Wiki-сторінка
  • Сайт
  • .....

Інформаційні ресурси

Друковані джерела

  1. ...
  2. ...
  3. ...

Відеоматеріали

  1. https://www.youtube.com/watch?v=isibWY_xBfM
  2. https://www.youtube.com/watch?v=tVI-Po6rXMc
  3. https://www.youtube.com/watch?v=auq8h4Bas50&t=1s

Електронні ресурси

  1. http://k750.media/post/1757
  2. https://ranok.ictv.ua/ua/videos/shtuchnij-intelekt-mozhe-znishhiti-lyudstvo/
  3. https://dt.ua/TECHNOLOGIES/stiven-hoking-nazvav-shtuchniy-intelekt-zagrozoyu-lyudstvu-158230_.html


Центральноукраїнський державний педагогічний університет імені Володимира Винниченка