https://frosthead.com

Може ли вештачка интелигенција помоћи да се заустави пуцњава у школи?

За сву запањујућу учесталост, школске пуцњаве остају збуњујући хорор.

Не само да постоји мали консензус о томе како их зауставити - са предлозима у распону од ограничавања приступа оружју до наставника наоружавања - већ постоји и мање сигурна чињеница зашто би ученик отворио ватру на своје другове.

Сада, неки научници почињу да истражују да ли би вештачка интелигенција (АИ) могла да помогне у проналажењу одговора. Идеја је да би алгоритми могли боље анализирати податке везане за пуцњаву у школи, а можда чак и идентификовати обрасце у језику или понашању ученика који би могли предсказати насиље у школи. Истраживање је још увек у раној фази, а могућност коришћења машина за предвиђање ко би могао да постане школски стрелац отвара питања приватности и друга етичка питања повезана са било којом врстом профилирања, посебно јер би тај процес укључивао децу. Циљ је, међутим, да се види да ли аналитичка снага интелигентних машина може пружити више јасноће трагедијама које се пречесто конзумирају у вихору високих емоција и политичке реторике.

Прелазећи на технологију

Коришћење вештачке интелигенције као начин да се научна анализа доведе до нечега што је неприхватљиво као школске пуцњаве веома се свидјело Схреиа Наллапати. Управо је завршила средњу школу у Колораду, али тек у фебруару, након смрти 17 ученика у Паркланду на Флориди, инспирисала ју је ученица водитељка Емма Гонзалез да предузме акцију.

„Осјетио сам да не треба само да објављујемо своје мисли и саучешће“, каже Наллапати. "Мислио сам да као пораст генерација миленијала треба да покушамо да користимо оно што најбоље знамо - технологију."

Тако је Наллапати, која у средњој школи студира вештачку интелигенцију, посегнула за другим младим женама које познаје кроз програм назван Аспиратионс ин Цомпутинг који води Национални центар за жене и информатичку технологију. Аспирације у рачунарству подстичу младе жене да се упусте у рачунарску и технолошку област.

Наллапати је замолила остале у групи да јој се придруже у новом пројекту, #НеверАгаинТецх. Нада се да ће заједнички напори резултирати компилацијом и анализом широког спектра података који се односе на школске пуцњаве - од демографских и социо-економских информација о претходним стрељачима, до било које историје употребе дрога или неуролошких поремећаја, па све до резултата АИ-а. доступност оружја у државама у којима је дошло до напада. Циљ је развити свеобухватнију рашчламбу многих компоненти школских пуцања од било чега што тренутно постоји и наредни софтвер учинити доступним јавности, посебно школама и органима за спровођење закона, следеће године.

Процена ризика

Тим истраживача Медицинског центра за дечију болницу у Цинциннатију користи другачији приступ у коришћењу АИ-ја за решавање насиља у школи. Објавила је недавну студију која сугерише да машинско учење потенцијално може помоћи терапеутима и саветницима у утврђивању нивоа ризика који студент може да представља.

Конкретно, научници су открили да је АИ био тачан као тим дечјих и адолесценских психијатара када је у питању процена ризика од насилничког понашања, на основу интервјуа са 119 деце у доби од 12 до 18 година. Док се студија широко фокусирала на физичко агресија, главни истраживач Древ Барзман каже да је то било применљиво и за процену ризика од пуцања у школи.

"Обично постоје знакови упозорења пре насиља у школи, " каже он. Конкретно, језик који студент користи током интервјуа може помоћи у разликовању високо ризичног тинејџера од једног са ниским ризиком, показала су претходна истраживања Барзмана. Та студија је закључила да је већа вероватноћа да ће први изразити негативна осећања према себи и према делима других. Такође је вероватније говорио о насилним делима који укључују себе и насилним видео играма или филмовима.

Тим је направио још један корак тако што је АИ алгоритам користио резултате раније студије да би анализирао транскрипте студената интервјуисаних за ново истраживање. На основу језичких образаца указивало се на то да ли је особа високог или малог ризика од насиља. Више од 91 одсто времена алгоритам се, користећи само транскрипте, поклапао са опширнијим проценама тима дечијих и адолесцентских психијатара, који су такође имали приступ информацијама од родитеља и школа.

Студенти су у великој мери регрутовани из психијатријских амбуланти, болничких и хитних служби. Неки су недавно показали велике промене у понашању, али за друге су промене биле мање. Барзман каже да су похађали различите школе, иако ниједна није била кућна школа.

Према Барзману, студија се фокусирала на предвиђање физичке агресије у школи, али да се још увек не зна може ли машинско учење заиста спречити насиље. Фокус у овом тренутку је пружање терапеутима и саветницима алат који би могао да пооштри њихове процене студената на основу интервјуа. Намјера, напомиње Барзман, није да машине доносе одлуке о студентима.

"У основи би значило помоћ клиничару у његовом одлучивању", каже Барзман. "Пружали бисмо им структуру онога што смо сматрали важним питањима. Може бити тешко интервјуисати ученика, одабрати праве информације и упамтити све. Идеја је да им пружимо алат који би им могао помоћи кроз процес и повећати тачност њихових процена. "

Матти Скуарзони је још један верник у потенцијал вештачке интелигенције у борби против насиља у школи. Он је извршни директор калифорнијског стартапа под називом Ситцх АИ, који планира пласирати технологију за коју каже да би могла да помогне школама у суочавању са таквим претњама. Почетни фокус биће стављен на развој система сензора који ће полицајцима омогућити тачно откривање места пуцања, као и праћење кретања стрелаца кроз школу. Међутим, Скуарзони каже да компанија такође разматра начине како да искористи предиктивну анализу како би уочио потенцијалне проблеме пре него што постану насилни.

Верује да би вештачка интелигенција могла да анализира податке ученика и примети уочљиве промене у његовом учинку или понашању. Скуарзони признаје потенцијалну забринутост због приватности, али каже да компанија не би знала идентитет студената.

„Не говоримо о стварању профила“, каже он. „На сваку особу бисмо гледали као на јединствен ентитет. Али људи су навика. Кад почну да имају неправилности, тада почнете да их гледате. Примећујете заставе и можда се заставе почну приближавати и приближавати. Они могу бити проблеми менталног здравља, или можда њихове оцјене опадају.

„Не гледамо у стању да кажемо:„ Ова особа ће бити стрелац. “ Желимо да можемо да кажемо: „Овој особи је потребна помоћ“.

Не тако брзо?

Али други имају озбиљну забринутост због журбе са коришћењем софтверских алгоритама за решавање сложених друштвених проблема.

„Сада примећујемо тренд примене АИ на веома осетљиве домене алармантном брзином, а људи који праве ове алгоритме не разумеју нужно све друштвене, па чак и политичке аспекте података које користе“, каже Расхида Рицхардсон, директор истраживања за политику на АИ Нов Институте, програму на Универзитету Нев Иорк који проучава друштвене импликације вештачке интелигенције.

Једна област у којој је употреба АИ запалила је оно што је познато као предиктивна полиција. Ради се о софтверским производима који анализирају статистику криминала, а затим предвиђају где је већа вероватноћа да ће бити почињени злочини. Међутим, критичари истичу да подаци попут хапшења могу бити резултат људске пристрасности која се у коначници може упасти у алгоритам.

То је увек ризик предиктивне анализе и зашто је извор података кључни фактор у одређивању колико он заправо може бити. Међутим, с обзиром на АИ алат који су истраживачи Дјечје болнице у Цинциннати-у развили, анализа се заснива на ономе што поједини студенти кажу током интервјуа, а не на широкој компилацији статистика.

Ипак, Рицхардсон вјерује да је важно да тимови који стварају овакав софтвер буду "интердисциплинарни", тако да су, примјерице, наставници укључени у програме који процјењују понашање ученика.

„Истраживачи можда не разумеју многе нијансе онога што људи у свету образовања и правне политике називају школском климом. То укључује питања сигурности и понашања ", каже она. „Врста школе у ​​којој се налазите често ће диктирати како се понашати и како се с њим поступа дисциплина.

"На пример, за цхартер школе је утврђено да имају много строже дисциплинске политике", додаје Рицхардсон. „Деца у том окружењу биће третирана много другачије него у вишој приватној школи, па чак иу различитим срединама у јавним школама.

„Покушај разумевања веома компликованих питања која имају безброј инпута и примена технолошког решења које одражавају лепезу проблема представља проблем јер може или поновити исте проблеме које видимо у друштву или створити решење за проблем који тамо нема. “

Рицхардсон каже да је још једна забринутост да чак и ако се АИ програм развија са најбољим намерама, он се може на крају користити на начине који његови творци нису предвидјели.

„Једном када нађете ове алате“, каже она, „није да и даље имате контролу над начином на који су примењени или како ће наставити да утичу на друштво у целини“.

Може ли вештачка интелигенција помоћи да се заустави пуцњава у школи?