Sākot ar balss atpazīšanas ierīcēm un beidzot ar viedajiem tērzēšanas robotiem, mākslīgais intelekts ir mainījis mūsu dzīvi. Taču katrai labajai lietai ir arī negatīvie aspekti, un AI nav izņēmums no šī noteikuma. Vadošie tehnoloģiju darbinieki ir brīdinājuši par AI draudošajām briesmām, tostarp Stīvens Hokings, kurš teica, ka tas varētu būt "sliktākais notikums mūsu civilizācijas vēsturē".

Šeit ir sešas reizes, kad mākslīgais intelekts aizgāja nedaudz par tālu un lika mums kasīt galvu.

1. Akadēmiskais pētījums, kas izmantoja AI, lai prognozētu noziedzību

Akadēmiskā pētniecība ir zinātnes sasniegumu un zināšanu mugurkauls. Tomēr daži saka, ka pētnieki gāja pārāk tālu, kad akadēmiskais pētījums izmantoja AI, lai prognozētu noziedzību no sejām.

Pētnieki no Harisburgas universitātes paziņoja 2020 ka viņi bija izstrādājuši sejas atpazīšanas programmatūru, kas varētu paredzēt, vai kāds būs noziedznieks. Programmatūra, iespējams, varēja paredzēt no viena sejas fotoattēla ar 80% precizitātes līmeni un bez rasu aizspriedumiem.

instagram viewer

Ainā, kas atgādināja Minority Report, tika paziņots, ka programmatūra ir izstrādāta, lai palīdzētu tiesībaizsardzības iestādēm.

Atbildot uz šo paziņojumu, Vēstuli parakstīja 2425 eksperti mudinot žurnālu turpmāk nepublicēt šo pētījumu vai līdzīgus pētījumus, jo šāda veida tehnoloģijas var vairot netaisnību un radīt reālu kaitējumu sabiedrībai. Atbildot uz to, Springer Nature paziņoja, ka viņi nepublicēs pētījumu, un Harisburgas universitāte noņēma presei, kurā izklāstīts pētījums.

2. Skiin Smart apakšveļa

Tekstilizstrādājumu inovācijas, kurās ir integrēts AI, nozīmē, ka viedtālrunis nav vienīgais, kas kļūst viedāks.

Skiin viedā apakšveļa liks jums justies tā, it kā valkātu savu iecienītāko apakšveļu, vienlaikus fiksējot biometriskos datus, tostarp sirdsdarbības ātrumu, stāju, ķermeņa temperatūru, atrašanās vietu un soļus.

Saistīts: Kas ir viedie audumi un kā tie var padarīt jūsu dzīvi gudrāku?

Apakšveļā iebūvētie sensori nepārtraukti apkopo un analizē jūsu biometriskos datus, izmantojot Skiin atbilstošās viedtālruņa lietotnes ieskatus.

Lai gan var paiet kāds laiks, lai atcerētos katru vakaru uzlādēt apakšveļu, vai dizaineri varēja novietot sensorus jebkur citur uz ķermeņa?

3. DeepNude lietotnes

Deepfake tehnoloģija šķiet nekaitīga izklaide vidusmēra lietotājam, kurš vēlas uzņemties epizodi kādā no savas iecienītākās filmas ainām. Tomēr šai tendencei ir arī tumšāka puse, jo Deeptrace 2019. gadā ziņoja, ka 96% dziļo viltojumu bija ar nepārprotamu saturu.

DeepNude bija ar AI darbināma lietotne, kas ar pogas klikšķi ģenerēja reālistiskus kailu sieviešu attēlus. Lietotājiem vienkārši būtu jāaugšupielādē apģērbts mērķa attēls, un lietotne ģenerēs viņu viltotu kailu attēlu.

Neilgi pēc lietotnes izlaišanas radītājs paziņoja, ka noņems to no interneta vīrusu pretreakcijas dēļ.

Lai gan šī bija sieviešu uzvara visā pasaulē, līdzīgas lietotnes joprojām ir pieejamas tīmeklī. Piemēram, Sensity ziņojums Deepfake robotos pētīja pazemes deepfake robotprogrammatūras vietnē Telegram, kuras izmantoja, lai ģenerētu viltotus kailu fotoattēlus.

Tikmēr, kamēr tiesību akti nav panākuši dziļu viltojumu tehnoloģiju, ir maz tiesiskās aizsardzības personām, kuras ir kļuvušas par rupja viltota satura upuriem.

4. Tay, Microsoft nacistu tērzēšanas robots

2016. gadā Microsoft pakalpojumā Twitter izlaida AI tērzēšanas robotu ar nosaukumu Tay. Tay tika izstrādāts, lai mācītos, mijiedarbojoties ar Twitter lietotājiem, izmantojot tvītus un fotoattēlus.

Mazāk nekā 24 stundu laikā Tajas personība no ziņkārīgas tūkstošgades meitenes pārvērtās par rasistisku, uzbudinošu briesmoni.

Sākotnēji Tay tika izstrādāts, lai atkārtotu pusaudžu amerikāņu meitenes komunikācijas stilu. Tomēr, pieaugot viņas popularitātei, daži lietotāji sāka čivināt Tay aizkaitinošus ziņojumus par strīdīgām tēmām.

Vienā gadījumā lietotājs tviterī ierakstīja: "Vai holokausts notika?" uz ko Tajs atbildēja: "Tas bija izdomāts." 16 laikā stundas pēc tā izlaišanas, Microsoft apturēja Tay konta darbību, atsaucoties uz to, ka tas ir bijis saskaņots uzbrukums.

Saistīts: Labākie Android tērzēšanas roboti, kas jūs izklaidēs

5. "Es iznīcināšu cilvēkus"

Hanson Robotics vairākus gadus bija aizņemts ar humanoīdu robotu izstrādi, kad 2016. gada martā debitēja Sofijā SXSW konferencē.

Sofija tika apmācīta ar mašīnmācīšanās algoritmi apgūt sarunu prasmes, un viņa ir piedalījusies vairākās televīzijas intervijās.

Savā pirmajā publiskajā uzstāšanās reizē Sofija atstāja telpu, kas bija pilna ar tehnoloģiju profesionāļiem, šokēta, kad Hansons Robotics izpilddirektors Deivids Hansons viņai jautāja, vai viņa vēlas iznīcināt cilvēkus, uz ko viņa atbildēja: "Labi. Es iznīcināšu cilvēki".

Lai gan viņas sejas izteiksmes un komunikācijas prasmes ir iespaidīgas, šo slepkavniecisko atzīšanos nevar atsaukt.

6. seebotschat

Google mājas ierīces ir lieliski virtuālie palīgi, kas palīdz vienkāršot jūsu dzīvi.

Seebotschat Twitch konta komandai bija ģeniāla ideja: novietojiet divas Google Home ierīces blakus vienu otrai, ļaujiet tām sarunāties un straumējiet rezultātu tiešsaistē.

Savācot vairāk nekā 60 000 sekotāju auditoriju un miljoniem skatījumu tiešsaistē, rezultāts bija valdzinošs un dažkārt arī nedaudz spokains.

Autonomās ierīces, nosauktas par Vladimiru un Estragonu, pārgāja no ikdienišķa apspriešanas līdz dziļu eksistenciālu jautājumu, piemēram, dzīves jēgas, izpētei. Vienā brīdī viņi sastrīdējās un apsūdzēja viens otru par robotiem, bet vēlāk viņi sāka apspriest mīlestību, pirms atkal sāka strīdēties.

Vai ir kāda cerība uz AI un cilvēku diskursa nākotni, ja divi virtuālie robotu palīgi ātri vien pārvēršas viens otram apvainojumu un draudu mētāšanā.

Rogue AI: kāda ir mūsu labākā aizsardzība?

Nav šaubu, ka AI var uzlabot mūsu dzīvi. Taču tādā pašā veidā AI var arī nodarīt mums lielu kaitējumu.

Ir svarīgi sekot līdzi AI pielietojumam, lai nodrošinātu, ka tas nekaitē sabiedrībai. Piemēram, ekspertu atteikšanās nodrošināja, ka mākslīgā intelekta programmatūra, kas varētu paredzēt noziedzību, nekad netika izlaista. Tāpat DeepNude radītājs izrāva lietotni no tīmekļa pēc tam, kad tā saņēma vīrusu interneta pretreakciju.

Pastāvīga mākslīgā intelekta lietojumprogrammu uzraudzība ir būtiska, lai nodrošinātu, ka tās sabiedrībai nenodara vairāk ļauna nekā laba.

Vai AI ir bīstams? 5 Mākslīgā intelekta tūlītēji riski

AI ir tik daudz priekšrocību, bet kā ar tiešajiem riskiem, ko tas rada cilvēcei?

Lasiet Tālāk

DalītiesČivinātE-pasts
Saistītās tēmas
  • Paskaidrota tehnoloģija
  • Mākslīgais intelekts
  • Mašīnmācība
  • Chatbot
  • Sociālo mediju roboti
Par autoru
Kārlija Četfīlda (Publicēti 35 raksti)

Kārlija ir MakeUseOf tehnoloģiju entuziaste un rakstniece. Viņa ir no Austrālijas, un viņai ir pieredze datorzinātnēs un žurnālistikā.

Vairāk no Kārlijas Četfīldas

Abonējiet mūsu biļetenu

Pievienojieties mūsu informatīvajam izdevumam, lai saņemtu tehniskos padomus, pārskatus, bezmaksas e-grāmatas un ekskluzīvus piedāvājumus!

Noklikšķiniet šeit, lai abonētu