ERROR
Як вижити в часи, коли рішення за нас приймають алгоритми☻☻☻
Як вижити в часи, коли рішення за нас приймають алгоритми☻☻☻☻☻☻☻☻☻☻
Сучасний музей – це не просто зібрання старих чи нових артефактів, насамперед це місце зустрічі й майданчик для важливих смислів.Національний художній музей України (NAMU), група компаній «Нові Продукти» та інтернет-журнал Platfor.ma ініціювали створення клубу «ГРУПОВИЙ СЕНС», в межах якого люди з різних сфер зустрічаються в музеї, аби знайти відповіді на суперечливі, але дуже важливі запитання. Тема третьої зустрічі була така: «Як вижити в часи, коли рішення за нас приймають алгоритми?»Ось найцікавіше з неї.
УЧАСНИКИ ДИСКУСІЇ:
ОЛЬГА БАЛАШОВА
заступниця голови NAMU
СЕРГІЙ ДАНИЛОВ
нейробіолог й керівник компанії Beehiveor
ОЛЕКСАНДРА ДОРОГУНЦОВА
креативна директорка Banda
ОЛЕНА СЕЛЮТІНА
директорка з комунікацій та PR ГК «Нові Продукти»
АНДРІЙ БОБОРИКІН
медіаменеджер, журналіст
ЮРІЙ МАРЧЕНКО
головний редактор Platfor.ma
АНДРІЙ БРОДЕЦЬКИЙ
журналіст і автор телеграм-блога «Технології, медіа і суспільство»

Груповий сенс. New Products x Platfor.ma x NAMU

Дякую, що ми тут зібрались. Це називається «Груповий сенс», ми зустрічаємось з розумними людьми з різних сфер і говоримо про актуальні проблеми. Тема у нас сьогодні звучить так: «Як вижити в часи, коли рішення за нас приймають алгоритми?»

Я подивився в Google, наскільки за останні роки в мережі збільшується кількість використання понять "машинне навчання", "штучний інтелект", "нейромережі" – там колосальне зростання. Всі це гуглять, всі намагаються зрозуміти, що відбувається. Ми все більше і більше стикаємося з штучним інтелектом: в телефонах, відеоіграх, телефонних помічниках. І при цьому штучний інтелект вже як мінімум півстоліття лякає людей. Всі точно знають один приклад – це Skynet і "Термінатор". Тобто фантасти вже давно кажуть: «Людоньки, обережніше! Бо ця тварюка стане більш розумною, ніж нам би хотілося – і тоді буде біда».
Я працюю в Національному художньому музеї. Гадаю, штучний інтелект і алгоритми – це інструмент, яким треба користуватися, і все залежить від того, як це робити. Тобто найголовнішим є визначити, хто буде суб'єктом прийняття рішення. Це продукт взаємодії людини і технології, то чи можемо ми говорити про певну суб'єктність технологій? І чи можемо ми змістити свої бачення від антропоцентричності? Відповіді на ці питання потрібно знайти якнайшвидше, бо технології розвиваються дуже швидко.
Я креативний директор з Banda. Я дуже сподіваюся, що мене вже не буде, коли головні рішення стануть приймати алгоритми. Але мені здається, що ми настільки інертні істоти, що поки домовимося, уже все буде вирішено за нас. Так вже давно: просто щось стається, а ми на це тільки реагуємо.
Я працюю в групі компаній «Нові Продукти». Людина історично боїться чогось невідомого. І зараз жоден футурист не береться сказати, до чого ми в результаті прийдемо, ми не знаємо, до чого готуватися.
Ми в Beehiveor займаємося саме пошуком алгоритмів поведінки людини, намаганням описати якісь правила. З моєї точки зору, нам ще дуже рано боятися. Наразі штучний інтелект – це просто статистичні моделі, які краще допомагають пояснити світ. Чим більше ми знаємо про світ, тим краще.

Звісно, попереду можуть бути якісь проблеми з технологією, тут можна згадати класичний приклад з ядерною енергією. Але, як і з атомом, все залежить від людей, а не від механізмів і інструментів.
Дійсно, штучний інтелект, машинне навчання і алгоритми – це багато в чому інструмент, що активно ускладнюється, але завжди має бути той, хто ним користується. Тому я більш оптимістично дивлюся на те, куди це все рухається. Тим паче, що уже очевидно: нікуди від цього не дінешся, ніякого повернення до життя без алгоритмів ніколи не відбудеться. Тому нам потрібно вчитися в цьому жити.

Скажімо, у майбутньому просто еволюціонує ринок праці. Професії вже починають змінюватися через можливості машинного навчання. До того ж це міняється не тільки в той бік, що люди втрачають роботу, а й в бік того, що з'являються інші інструменти.
Я журналіст і автор телеграм-блога «Технології, медіа і суспільство». Треба сказати, що це уявлення, яке у нас є про Skynet і злих роботів, – це результат фантазії сценаристів. Адже того, що там зображено, не тільки не існує зараз, у найближчі десятиліття цього навіть ніхто не прогнозує. Взагалі не стоїть поки що таке питання.

Зараз є просто алгоритми, які вміють дуже добре обробляти великі масиви даних і знаходити певні кореляції. Це все, що зараз може запропонувати галузь штучного інтелекту. Разом із тим це дуже потужні інструменти. Все, що раніше робилося без комп'ютерів, тепер відбувається за їхньої допомоги. Алгоритми дійсно сильно впливають на нашу поведінку. Онлайн-карта може вирішити, якою дорогою я піду. Скажімо, зараз я довірився алгоритму і вибрав певний маршрут, але запізнився сюди, ви на мене чекали. З іншого боку, без смартфона я би взагалі не знав, як сюди дістатися.
Тепер можна казати, що запізнився через штучний інтелект і ти не винен.
Бо алгоритми – це не якісь досконалі речі. Ми не можемо написати програму яка, наприклад, визначатиме, як виглядає собака. Для цього треба показати нейромережі мільйон фотографій собак, вона знайде в них якісь закономірності, а на мільйон першій зрозуміє, собака це чи ні. Це вже застосовується у багатьох галузях.

Якщо програмі показати сто тисяч рентгенограм з раком, вона навчиться з доволі високою точністю в якихось ледь помітних пікселях знаходити онкологію так, як це не може зробити жодна людина.

Але разом з тим інструментом можна вбити людину. Ми говорим про якісь фантастичні речі, про Skynet. Але люди уже знищують інших за допомогою алгоритмів: скажімо, дронами. Тобто, коли говоримо про штучний інтелект, то давайте пам'ятати, що це програма, яку хтось написав і хтось запустив.
Етика і праця у світі алгоритмів☻☻☻☻☻☻☻☻☻☻☻☻
ERROR
Етика і праця у світі алгоритмів ☻☻☻☻☻☻☻☻☻☻☻☻
Андрій вже сказав, що через штучний інтелект зміниться ринок праці. Здається зараз найбільше переживають щодо цього водії, юристи і медики. Саме про юристів є цікавий кейс: вони спробували поборотися з алгоритмом. Було чотири години, п'ять якихось юридичних завдань і запитання: хто краще їх вирішить. Люди зробили це з 85% успіху, а алгоритм – з 95%. Але при цьому люди витратили майже дві години, а штучний інтелект – 26 секунд.

І друга тема, яку я теж хотів зачепити, бо ми тут вже побічно згадували етику. Минулого року у США професори філософії пропонували надати штучному інтелекту права тварин. Не людей, але тварин.
Нова етика дійсно активно обговорюється. Зокрема була велика дискусія про машини з автопілотом. Там є декілька етичних задач, коли для того, щоб врятувати 20 людей, треба, скажімо, врізатися в стіну і вбити водія. Як має поводити себе штучний інтелект? Поки що адекватної відповіді немає, та й багато в чому це задачі, які не мають рішення.
Це чудово вирішується еволюційно. Якщо у мене буде вибір: врятувати людей або врятувати себе, то це питання не мого рішення. На першій погляд, я скоріше за все, врятую себе, і часто так і відбувається. Але є репутація, втрата якої може бути страшнішою за втрату життя, є бажання захистити своїх (щоб це не означало). Ці мотиви й емоції і є наші еволюційні програми, які зважують цінність рішень та роблять вибір за долі секунди.
Один із аспектів, де дійсно є сенс говорити про права алгоритмів, – це авторські права. Скажімо, одні хитрі люди згенерували за допомогою алгоритму картину. Далі її роздрукували і продали з аукціону.
За $432 тис., до речі.
І тут запитання. Уже пізніше знайшовся автор частини алгоритма, який вони використали. Адже софт ніхто не робить сам з нуля, всі користуються чиїмось готовими рішеннями.

Крім того, при створенні цієї програми у її пам'ять потрапили усі картини, які їй показували, тобто художники теж в якійсь мірі були співавторами. То що ж вийшло в результаті? Це результат роботи художників, програміста, який натренував нейромережу, чи хитрих людей, які надрукували принт і продали його?
Ми говоримо не про права алгоритмів, а про те, як люди між собою домовляться щодо патенту.
Але це має стосунок до авторства. Хто є автором цього твору?
Це не проблема алгоритму. Йому однаково.
До речі, про патенти тему також починають піднімати. Минулого року двоє науковців з університету Суррея сказали, що вони зробили відкриття, але патент має належати алгоритму, бо вони лише натиснули кнопку, а він все зробив сам. А ще ми колись досліджували тему, чи можна бити робота. Всі ми бачили відео з Boston Dynamics і всі переживали, коли на них ображали роботів, хоча це просто агрегат, механізм.
Ти ж можеш емоційно зламати пилосмок? Розізлитися, наприклад. Прийшов з роботи додому в поганому настрої, і от гаджет потрапив під руку.
Є класичний експеримент Альберта Бандури, який називається "Лялька Бобо". Дітям показували, як б'ють ляльку – і у них підвищувалася агресія. Пилосмок, який ви зламали, це прототип людини – це називається "переадресована агресія". У вас же агресію не пилосмок викликав. Тут питання наслідків, що саме викликало цю агресію. Є контекст. І контекст створює відповідь на це питання. Бийте робота, якщо це вам потрібно для якихось цілей.
Інтернет людей, речей і тварин☻☻☻☻☻☻☻☻☻☻☻☻☻
ERROR
Інтернет людей, речей і тварин☻☻☻☻☻☻☻☻☻☻☻☻
Є така теорія про інтернет тварин. Вважається, що перша стадія розвитку мережі – це інтернет людей, друга – інтернет речей, а третя – інтернет тварин. Спочатку ми навчилися взаємодіяти між собою засобами інтернету, потім підключилися пилосмоки і холодильники, а тепер мова йде про те, щоб розширити це до тварин. Якісь гаджети для спілкування з ними, маленькі датчики, аби збирати інформацію. Все це має зблизити людину з природою.

Тут вже мова про те, що виникає певна суб'єктність тварин. Звірі зможуть сповіщати про себе якусь інформацію, і перестати бути просто об'єктом. Так само і з предметами, коли вони стають складнішими, коли з ними можна вибудовувати якусь комунікацію. Умовно, холодильник, який може сповістити нам про якісь негаразди, про якісь проблеми, про те, що він пустий, – це вже теж певне ніби створіння.

Коли виникає більше інформації, більше комунікації, більше взаємодії, то і стосунки стають складнішими, і ми отримуємо можливість дати речам чи тваринам якусь суб'єктність.
А воно їм треба? Ми вважаємо, що живемо у світі, де все більше і більше інформації. Але я не думаю, що ми можемо поглинути більше даних, ніж це робили наші предки. Змінюється форма інформації, способи, зручність праці з нею, але не наш взаємозв'язок зі світом. Те, що можна навчити тварину користуватися девайсом, не змінює якості інформації. А якщо у нас є уявлення, що у пляшки є душа, то це проблема з нашою головою, а не з пляшкою.
Це цікавий підхід – наділяти суб'єктністю якісь предмети техніки. Я почав думати про свої стосунки з холодильником, і у нас мабуть, пасивна агресія. Я нічого в нього не кладу, а він мені нічого не віддає.

Але будь-які предмети техніки – це просто інструменти людей. І те, що якісь сенсори підключають до тварин, не робить їх інструментами для тварин, це інформація для людей.
Повертаючись до алгоритмів: тепер вони сильно впливають на те, як ми проводимо свій час. Якщо ви цікавитесь сексом бобрів, то у мережі вам весь буде спливати інформація саме про це. Чи варто розповідати все про себе, заради того, щоб алгоритми зробили наше життя більш комфортним?
Є небезпека замкнутися у своєму колі, і отримувати лише те, на що маємо запит. Тоді я ніколи нічого нового не дізнаюся. Ніщо не звалиться на мене і не скаже: "Пізнай мене!"
Наразі подібні системи ще не дуже досконалі. Скажімо, ти кудись з'їздив, а реклама буде продовжувати пропонувати тобі якісь готелі й послуги, хоча ти давно вже повернувся.
Але з цього прикладу слідує, що треба навпаки розповідати якнайбільше. Вже зараз з'явилися браузери, які збивають з пантелику рекламні мережі. Але я в цьому взагалі не бачу сенсу, бо тоді ми постійно будемо бачити рекламу, яка до нас не має жодного стосунку. Якщо зараз є хоч якась вірогідність того, що це щось потрібне, то в іншому випадку буде щось зайве.

Якщо говорити про алгоритми Facebook, про те, чи варто допомагати їм на нас навчитися, то перестати це робити практично неможливо. Навіть якщо завести абсолютно чистий аккаунт. А, скажімо, в Tik Tok навіть акаунт заводити не треба, щоб алгоритм навчався, настільки там все просунуте. Здається, там понад 2000 сигналів, за якими він розуміє, що ти – це ти. Тобто якщо ви візьмете телефон іншої людини і посидите в Tik Tok півгодини, то система вас впізнає за поведінкою.
Зайшла мова про рекламу, це моя улюблена тема, я всіх агітую заглядати в цей чорний ящик. Коли наступного разу зайдете в Facebook, то на будь-якому рекламному пості виберіть в меню "Чому я бачу цю рекламу?" і трохи нижче буде кнопка "Your ad preferences". Заходите туди і бачите сотні інтересів, які вам присвоїв алгоритм, причому він аналізує також вашу поведінку поза сайтом.

Я колись зайшов в цей рекламний кабінет Facebook, у мене там було більше тисячі міток, деякі з них були ну зовсім мимо. Я не знаю, як алгоритм вирішив, що мені цікаве поло, наприклад, чи купівля гелікоптера. Я подумав так: що я можу з цим зробити? Зменшити кількість реклами не можу, тож може краще бачити не оголошення якоїсь пластичної хірургії чи засобів для вагітних, а реклама, яка мені дійсно цікава? Я прибрав усі зайві речі, лишив тільки ті, які більш-менш стосуються моїх інтересів, і тепер у мене доволі релевантна реклама.
Це ж, до речі, не стільки алгоритм робить, скільки просто хороший маркетинг.
Так, таргетована реклама.
А з іншого боку, уявляєте, яка кількість потенційно цікавої для вас інформації йде повз?
Ніколи не знаєш, коли тобі знадобиться інформація для вагітних. Я би хотіла бачити інтерв'ю, яких не очікувала, і читати книжки, про які не збиралася чути. Однак алгоритм вирішив, що якщо я раніше про це не знала, то і не треба.
Я бачив експеримент, коли упоротим консерваторам показували, як виглядає стрічка ліберала. Там буквально сиділи такі реднеки в картатих сорочках, які дивувалися: "Ого! Та я в мережі взагалі нічого хорошого не бачив про Клінтон". Можемо щось подібне зробити в Україні. Якомусь електорату "Опозиційної платформи" видати соцмережі виборців "Голосу" й "Європейської солідарності". І просто щоб люди обговорили якісь речі або разом погортали стрічку. Та ви й самі можете провести експеримент і подивитися Facebook іншої людини. Фактично у кожного із нас свій персоналізований інтернет.
Чи вирішують алгоритми за нас☻☻☻☻☻☻☻☻
ERROR
Чи вирішують алгоритми за нас☻☻☻☻☻☻☻☻☻☻
Ще цікаво, що те, що люди говорять, і як вони насправді діють, – це різні речі. У великих компаніях часто проводяться фокус-групи. Але якщо потім спостерігати за людьми у звичайному житті, то стає ясно, що діють вони абсолютно не так, як розповіли. Тож не тільки в інтернеті, а й у житті, щоб зрозуміти, якою людиною справді є, треба не питати, а підглядати за нею.

У нас, наприклад, в портфелі є один бренд – алкогольний енергетик Revo. До нього всі ставляться або дуже позитивно, або дуже негативно, середнього немає. Тож, якщо ми хочемо, щоб нас почули, то говоримо це від імені Revo, бо це завжди отримує відгук. Навіть цілком серйозні речі, коли говоряться від героїв цього бренду, сприймаються інакше.

І при тому, що аудитория у бренда велика, досить мало людей зізнаються, що вживають цей напій. Можливо, вважають, що він показує їхню темну сторону.
Додатки теж можуть показати нашу темну сторону. Скажімо, фітнес-трекери. Ти і так відчуваєш, коли мало спиш чи гуляєш, а за допомогою гаджетів можна взагалі бачити, як ти погано ставишся до свого тіла. А найбільший шок людина відчуває, коли заходить в скрінтайм на смартфоні і бачить, скільки часу вона витрачає на всяку дурню в телефоні.

У Кремнієвій долині є така приказка: there is an app for this. Для всього вже зараз є додатки. Але в погоні за простими рішеннями, коли просто натискаєш кнопку і все ніби спрощується, не можна забувати, що це саме інструменти, й головними є ми.
Все, що стосується нашої фізіології, звичок, цілей – алгоритми не вирішують за нас. І в цілому вони не дуже надійні. Комп'ютери добре прогнозують те, що ви будете робити в найближчі 2-3 секунди. Але далі якість прогнозу сильно знижується.

Алгоритми – це дійсно лише інструмент на зразок лінійки. Просто ця лінійка стає все складніше і складніше, іноді навіть невиправдано складною. Але вона все одно залишається лінійкою.

Щоправда, є випадки, коли алгоритми самі починають бути дійовою особою, як було, наприклад, з нещодавніми аваріями Боїнгів. Літак сам вирішив включити певний режим – і через це загинули люди. Але це все одно провина людини. Бо на даному етапі розвитку алгоритмів їхні помилки – це все ще помилки людини, яка створювала алгоритм.
Можливо, саме тому зараз відбувається деяка елітарізація людського сервісу? Є безліч різних додатків, але все більше цінується особиста участь. Скажімо, існують сотні фітнес-додатків, але люди, які можуть собі це дозволити все одно обирають особистих тренерів.
Справа в тому, що алгоритми допомагають лише якійсь ідеально середній людині. Просто через те, що вони побудовані на великий статистичній вибірці. Тому, скажімо, в спорті вони працюють не дуже ефективно через те, що всі люди індивідуальні.

А друга проблема – контекст. Жоден алгоритм поки не вміє його насправді враховувати. Якщо я сьогодні поспав всього 5 годин, але зате я в потоці натхнення і кайфую від роботи, то це не так і страшно, але алгоритм зрозуміти цього не може.

Твір, який створив алгоритм, дійсно можна умовно вважати продуктом творчості. Але майже ніколи – об'єктом мистецтва. Щоб він став таким, має співпасти дуже багато факторів, головний із яких – виключність цього твору. Гадаю, для алгоритму це майже недоступно.
Але фітнес-трекери існують лише років п'ять. Скажімо, якщо взяти медицину, то алгоритми в багатьох випадках вже ставлять діагноз краще, ніж людина. Дати фітнес-трекерам час – і вони будуть з'єднуватися з сайтом погоди, враховувати твої соцмережі, робити постійний аналіз крові.
Я згоден з Оленою, що цифрові сервіси – для бідних. Вчити мову з репетитором ефективно, але дорого, а алгоритми дозволяють робити це за копійки. Однак давайте згадаємо, скільки людей років десять тому могли взагалі вчити іноземні мови. Не так багато. Тепер завдяки додаткам це доступно майже усім.
Творчість штучного☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻
ERROR
Творчість штучного☻☻☻☻☻☻☻☻
Хочу повернути бесіду в дещо інший бік. Ми зараз в Національному художньому музеї, а Андрій вже згадував, що алгоритм створив картину, яку продали за багато грошей. Більш того, алгоритми вже створювали купу всього: сонети, різдвяні оповідання, музику. Але чи може він не створювати, а творити?
Поки що це просто маркетинг. Нещодавно, скажімо, журнал Esquire в одній з країн випустив номер, нібито повністю складений алгоритмами. Але будь-яка людина, знайома з машинним навчанням, одразу скаже, що це явно не зовсім так. Або, скажімо, робот Софія – хайпа багато, але ж це насправді просто чат-бот, який лише вибирає відповідь на питання, виходячи із закладеної в нього бази.

Але при цьому можна згадати стартап Mubert, який нескінченно створює фонову музику, таку ніби для ліфтів. Тобто алгоритм нескінченно в реальному часі працює композитором. Думаю, вже через кілька років можна буде просто замовити у алгоритму альбом улюбленої групи.
В мистецтві є набір факторів, які роблять твір, власне, твором. По-перше, це ефект новизни. Для алгоритма це вже неможливо, бо він базується на здобутках інших, які заклали йому в базу.
Але люди-художники теж грунтуються на всьому тому мистецтві, яке було до них.
Так, але у людини кількість творчих варіантів потенційно безмежна. Алгоритм все ж базується на аналізі саме того, що в нього завантажили. Згадаю ще один цікавий проект: нейромережа намалювала картину у стилі Рембрандта. Дійсно було дуже схоже, в цьому була певна майстерність. Але ніякої новизни.

Навіть якщо згадати той самий кейс про $432 тис. Така ціна склалася з того, що це було зроблено вперше. Вперше технологія створила таке і вперше її гучно продавали. Повторити це неможливо.

Твір, який створив алгоритм, дійсно можна умовно вважати продуктом творчості. Але майже ніколи – об'єктом мистецтва. Щоб він став таким, має співпасти дуже багато факторів, головний із яких – виключність цього твору. Гадаю, для алгоритму це майже недоступно.
При цьому вже зараз для творчості комп'ютерів є багато ринків. Скажімо, фонова музика для якихось роликів. Ми вже згадували Mubert, а є ще компанія Jukedeck, алгоритм якої теж може створювати музику. Її нещодавно купив TikTok просто тому що їм потрібно озвучувати дуже багато користувацьких роликів, а платити за це роялті вийде реальним музикантам дуже дорого. Тепер цей алгоритм робить все безкоштовно.
Давайте ще уточнимо, що таке алгоритм. Зазвичай під цим розуміють купу людей, які його тренували й відбирали певну музику чи живопис, щоб завантажити в базу. І дуже залежить, що саме було для них красивим чи милозвучним, та в якій частині планети це відбувалося.
Які небезпеки штучного інтелекту ви бачите?
Це просто інструменти, які хтось виробляє і зашиває в них певну логіку. Далі їх використовують інші люди, керуючись своїми цілями. Тобто запитання не стільки до алгоритмів, скільки до людей: і розробників, і користувачів.

Технологія сама по собі не є ані добром, ані злом. Нейромережі, скажімо, дають великі можливості лікарям чи урбаністам, але їх також можна використовувати для вбивства людей або для створення репресивної машини. Причому з диктаторськими режимами прекрасно працюють розробники із демократичних країн. До алгоритмів запитань менше, аніж до людей.

Плюс дуже важливий нюанс виборки, на якій вчать штучний інтелект. Якщо вона викривлена через помилки чи стереотипи, то це призведе і до неякісної роботи алгоритму. Скажімо, таке вже траплялося, коли система посилала більше поліцейських в "чорні" райони, грунтуючись на хибній базі для аналізу.
А я дуже боюся, що через технології ми станемо більше спілкуватися з холодильниками, аніж з людьми.
Можна не боятися – перше, що приніс нам штучний інтелект, це кількість спілкування. Без соцмереж ніхто би стільки комунікацій ніколи не мав. Але, звісно, дещо страждає їхня якість.
Також від технологій страждають деякі інші наші навички. Наприклад, орієнтування в місті. Бо смартфони – це наше продовження, і ми завантажуємо в них інформацію, яка прямо зараз нам не потрібна.
Мене дійсно лякає оцей зворотній зв'язок, про який заговорив Андрій. Якщо відправити більше поліцейських в певний район, то вони зафіксують там більше порушень, а люди будуть більше до них звертатися.

Плюс є ще така проблема, що ми просто не вміємо так швидко реагувати на настільки глобальні зміни життя. Ось це може бути небезпечно.
Підсумок☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻☻
ERROR
Підсумок☻☻☻☻☻☻
У нас тема була про те, що алгоритми вирішують за нас. Це дійсно так, софт з'їдає світ. Вже не вийде як десять років тому назад сказати: не хочу, щоб за мною слідкували. Зараз без використання алгоритмів на кону стоїть твій соціальний статус. Нам треба змиритися з тим, що частину інформації про себе ми передаємо невідомо кому.

Але не думаю, що це проблема, якщо ми будемо хоч іноді перевіряти усі ці чорні ящики. Не треба бути айтішником, можно на абсолютно побутовому рівні зрозуміти, як працюють cookies, які дані ти передаєш – в першу чергу Google та Facebook, бо з десятки найбільш популярних в Україні сервісів більшість належить саме їм. Головне – щоби ти використовував інструменти, а не вони тебе.
Мені здається, важливо не забувати робити певні зусилля. Так, навколо нас формуються інформаційні бабли. Треба змушувати себе вириватися з них і шукати іншу інформацію. Отримувати дані не в розслабленому режимі стрічок соцмереж, яка підлаштовується під тебе, а в активному.
Дійсно, персональна відповідальність стає все більш важливою. Все залежить від того, чи приймаєш ти рішення, чи проактивний ти. Попри весь розвиток штучного інтелекту ти ніколи не зможеш звинувачувати розумний холодильник у тому, що алгоритму фітнес-трекера не вдається зробити твою фігуру ідеальною.
Просто наостанок висловлю сподівання, що ми будемо частіше бачити новини про те, як штучний інтелект діагностує хвороби і допомагає їх лікувати, аніж про маркетингові ідіотизми щодо картини за $432 тис.
І важливо пам'ятати, що алгоритми не роблять нас більш розумними чи більш хорошими. Давайте ставитися до них як до інструментів і не довіряти відповідальність за своє життя.
Ви щойно прочитали думки кількох різних людей про те, чи можуть мільйони помилятися. Але нам цікава і ваша думка! Пишіть свої міркування щодо вибору мас в коментарях до нашого посту в Facebook. Давайте шукати відповіді разом!