Штучний інтелект із Стенфорда вирішуватиме, кого випускати з тюрми

25 Березня 2019
штучний інтелект

Група дослідників зі Стенфордського університету спільно з організацією RTI International розробить алгоритм для оцінки підсудних. За планом система буде аналізувати дані і визначати, чи варто відпускати підозрюваних під заставу чи краще залишити їх під вартою.

За статистикою, одночасно понад 500 тис. американців очікують суду у в’язниці і не можуть вийти під заставу. У США рівень ризику для кожного підсудного оцінюють за системою PSA (оцінки громадської безпеки), яка враховує дев’ять факторів, пов’язаних з ймовірністю рецидиву чи ухилення від правосуддя. Наприклад, якщо підсудний був раніше судимим – він отримує бал. Сума балів за усі дев’ять факторів показує рівень його благонадійності. Однак залежно від регіону ці показники вимірюють по-різному.

Експерти Стенфорда розглянули понад 100 тис. судових постанов, пов’язаних з запобіжним заходом. Виявилося, що деякі судді дозволяють громадянам виходити під заставу в 90% випадків, тоді як інші – тільки в 50%. Така статистика доводить: рішення дуже залежить від конкретної особи, і часто виносяться поспішно і непослідовно.

Тому в Стенфорді створюють систему оцінки на базі штучного інтелекту, яка буде адаптована до локальних особливостей юрисдикції. Методи машинного навчання дозволять одночасно враховувати великі обсяги даних і виносити більш справедливі рішення. Потім результати порівняють з опитувальником PSA. Фінальне рішення виноситиме суддя, спираючись на об’єктивну картину, представлену технологією.

Розробники обіцяють зробити систему прозорою і простежити, щоб алгоритм не виносив рішень на основі расових упереджень. Також технологія вкаже, на які дані спирався штучний інтелект у своїх висновках. У деяких випадках алгоритм запропонує альтернативу. Наприклад, порадить прописати підсудному препарати для зниження ймовірності імпульсивної поведінки. Людині не доведеться залишатися у в’язниці, але вона й не становитиме загрози для суспільства.

Експерт в області права Деніел Чен з Університету Тулузи (Франція) вважає, що судді часто роблять свої висновки під впливом зовнішніх факторів – погоди, настрою, результатів спортивних матчів. Якщо все вдасться, то завдяки алгоритму можна буде заздалегідь виключати будь-яку можливу упередженість.

25 Березня 12:08
штучний інтелект
Найцiкавiше на сайтi

Грати за ґратами: репортаж із норвезьких в’язниць – найефективніших у світі

АвторАндрій Кузьмін
8 Травня 2018

Виправну систему Норвегії часто називають однією з найефективніших у світі. В більшості держав Європи та в Україні рівень рецидивів коливається у межах 50-70%, а в сусідній Швеції – більш ніж 40%. У Норвегії це 19%. Однак такого результату досягли далеко не суворістю. Для Platfor.ma фотограф Андрій Кузьмін зазирнув всередину декількох в’язниць однієї з найрозвинутіших країн світу, аби зрозуміти, як воно – коли держава дбає про злочинців.

В’язниця у місті Ларвік – одна з найменших в Норвегії. Тут відбувають покарання всього 16 засуджених віком до 25 років. Тор Меркесвік, начальник в’язниці, запрошує всередину, де територію підмітає хлопчина у спортивному одязі.

Це – Ганс, він засуджений за зґвалтування. Тор підходить до нього, тисне руку. Вони перекидуються парою слів і починають сміятися. Ти одразу розумієш, що потрапив не у звичну у нашому розумінні в’язницю.

Камери ув’язнених подекуди нагадують кімнати якогось пансіонату. У норвезькій тюремній системі важливе місце займає так званий «принцип нормальності». «Це означає, що умови життя у колонії максимально наближені до звичайного життя, – пояснює директор. – Саме тоді в’язням набагато легше стати на шлях виправлення».

Будівля в’язниці у місті Ларвік
Будівля в’язниці у місті Ларвік
Будівля в’язниці у місті Ларвік
Будівля в’язниці у місті Ларвік
Будівля в’язниці у місті Ларвік
Будівля в’язниці у місті Ларвік

Штучний інтелект чи штучний хайп: як головна інновація світу виглядає з України

Останніми роками штучний інтелект став чи не головним н’юсмейкером світу: технології стрімко розвиваються, а нейромережі роблять вже що завгодно у майже всіх сферах. Platfor.ma вирішила перевірити, що про ключову інновацію планети думають українські спеціалісти з IT, етики, та юриспруденції.

Майже 100 років тому, 25 січня 1921 року, у Празі відбулася прем’єра п’єси «R.U.R.» чеського письменника і драматурга Карела Чапека. За сюжетом твору, люди живуть у цілковитому достатку й безтурботності, а всю роботу виконують людиноподібні роботи, яких сьогодні ми б назвали андроїдами. Врешті вони піднімають повстання і виявляються здатними на емоції, створюючи своїх Адама і Єву.

Саме Карел Чапек був першим, хто вжив слово «робот», після чого воно увійшло в активний вжиток. При цьому термін «штучний інтелект» приписують Джону Маккарті, якого й вважають піонером цієї сфери. Якраз він у 1956 році організував першу тематичну подію – Дартмундський семінар, де й зібралися науковці, які почали розвивати цей напрям.

А от перший робот з’явився лише через 13 років – у 1969 науковці Стендфордського дослідницького інституту представили Шекі. Шекі міг рухатися і пересувати предмети, щоправда, на людину він був не дуже схожим. Пізніше почали з’являтися й роботи-андроїди, а японська компанія Honda розробила робота ASIMO, який зміг ходити на своїх двох. Ну а далі роботи почали грати у пінг-понг, футбол і навіть опанували скрипку.

25 жовтня 2017 року гіноїд (тобто робот з жіночою зовнішністю) Софія отримала громадянство Саудівської Аравії. Ця подіє підсилила побоювання противників розвитку штучного інтелекту. Мовляв, такими темпами роботи швидко не лише зрівняються у правах з людьми, але й займуть їхнє місце. То чи є розвиток подій, описаний у «R.U.R.», реальним, а передбачення Стівена Хокінга – правдою?

Зе­новій Ве­рес, кан­ди­дат технічних на­ук, ди­рек­тор освітнь­ого нап­рямку в Львівсь­ко­му ІТ клас­тері

На мою думку, поняття штучний інтелект є маркетинговим. Адже взагалі-то це лише набір математичних формул – достатньо складних, але все-таки формул. Мабуть найгучнішим прикладом застосування штучного інтелекту є автомобіль Тесла. Також згадайте – коли ви заходили переглянути той чи інший товар в онлайн-магазинах, то потім бачили рекламу цього товару на різноманітних сайтах. Це все результати роботи штучного інтелекту. Юриспруденція, медицина, сфера продажів також активно застосовують ці розробки, а аналіз поведінки злочинців допомагає поліції в розкритті злочинів.

Техноетика: секс із роботом – це зрада?

Технології розвиваються надзвичайно швидко – близький час, коли «Чорне дзеркало» стане збіркою правил з етикету та посібником із виживання, а штучний інтелект – невід’ємною частиною нашого повсякденного життя. Тому сьогодні ми запускаємо нову рубрику «Техноетика», в якій за допомогою фахівців будемо розв’язувати етичні питання епохи технологій. В першому випуску – думки про те, чи є зрадою близкість із сучасними технологічними секс-ляльками.

 

Юрій Вольних, психіатр, психоаналітик, президент психоаналітичної асоціації «Groupe du Champ freudien-Ukraine»

Загалом, секс-ляльки – роботи, андроїди – це просто вдосконалені сексуальні девайси. Незалежно від схожості з людиною, навіть якщо вони її точна копія, це всього лише втілення чоловічих або жіночих фантазій у реальності. Це об’єкт – предмет, а не одухотворена істота, не суб’єкт. Секс-лялька – підміна, заміщення реальної людини, без історії, бажання і пристрасті. Вони тільки допомагають втілити в життя сексуальні фантазії або урізноманітнити відчуття – без небезпеки завдати шкоди реальній людині.

У сучасному світі не зменшується кількість сексуальних насильств або домагань до жінок. Кожна друга ставала жертвою такого ставлення у житті. Доступні секс-андроїди можуть знизити ризик насильства серед особистостей з сексуальними перверсіями. До того ж така секс-лялька може бути тимчасовим замінником сексуального об’єкта, наприклад, на час розлуки. На період сексуальної деривації партнер може скористатися її послугами, а не шукати пригод на стороні

Або ж секс «утрьох» з постійним партнером не буде травматичним і не вважатиметься зрадою. Інша справа, якщо один із партнерів повністю віддав перевагу секс-андроїду, а не реальній людині. Але це вже з розряду психічної патології.

 

Ольга Маслова, кандидатка біологічних наук, співзасновниця освітнього проекту Nobilitet

Дуже важко чітко відповісти, чи можна вважати такі «стосунки» зрадою. Так само важко, як і оцінювати, чи є зрадою самозадоволення, яке еволюційно з’явилось дуже давно, перегляд порно, віртуальне інтимне спілкування тощо. З приводу порно та вірту, щоправда, все ж є зачіпки для пошуку зради, адже ми так чи інакше комунікуємо з іншою людиною: у випадку порно – однобічно, а при віртуальному спілкуванні ще й отримуємо відповідь. Може відбуватись так звана емоційна зрада, коли без фізичного контакту думки людини зайняті іншим об’єктом, а не партнером – а, отже, партнер не зможе принести стільки ж задоволення, як раніше.

Техноетика: чи можна бити та ображати робота

У рубриці «Техноетика» Platfor.ma разом з експертами з різних сфер шукає відповіді на етичні питання епохи технологій. У другому випуску ми досліджуємо, чи можна ображати машину – бити робота, жартувати над Siri, знущатися над штучним інтелектом?

 

Алевтина Шевченко, психолог-консультант на телеканалі «Україна»

Бити роботів – ненормативно, адже страждає якийсь внутрішній конструкт, який заведено називати гуманністю, емпатією, людяністю. Тобто кривдник сам потерпає від своїх дій. «Але ж це залізяка!» – скаже хтось і не буде правий до кінця. Людина з легкістю проектує почуття, подібні власним, легко приписує їх тваринам, рослинам, неживим предметам. Найочевиднішим прикладом можна вважати ставлення до ляльок, а робот, строго кажучи, і є лялька, тільки просунута.

А ось в самому понятті «образити робота» є суперечність. Адже образа – це почуття, а якщо робот здатний ображатися, тобто відчувати, то він цілком живий?

Проте нам боляче і неприємно бачити, як роботів ображають, тому що ми перекладаємо на них свої почуття. Вони для цього навіть набагато зручніші, ніж тварини, які зазвичай викликають подібні емоції. Так влаштована людська психіка.

Насправді роботи не потребують захисту. Їх інтелект – програма, а почуття – всього лише імітація. Решта – тільки ілюзії та проекції. Той же, хто вірить в образу роботів, схожий на клієнта повії, який хоче думати, що вона стогне від насолоди по-справжньому. На жаль, статистично це не так.

Володимир Хіцяк, керівник Центру етики і технологій Львівської бізнес-школи Українського католицького університету

Образа чи агресія – це, передусім, намір того, хто ображає. Не має значення, чи ми вчиняємо агресію щодо робота чи людини. Агресія – в будь-якому випадку зло. Це з погляду етики. З погляду закону, треба розуміти, який правовий статус має інша сутність, чи можна стосовно нього застосовувати норму «моральної шкоди».

До того ж, ми зараз надто мало знаємо про так звану «машинну емпатію», щоби передбачити, якою може бути реакція машини на певні людські емоції. Інший аспект – щоб емоція людини стала образою, треба, щоби машина саме так її сприйняла. Тут ми вже торкаємося питання самосвідомості машини, що, як на мене, є областю фантастики.