Carros autônomos não sabem escolher quem matar em situações extremas

Carros autônomos

Já foi descober­to em pesquisas ante­ri­ores que as pes­soas, geral­mente, preferiri­am min­i­mizar as mortes em um poten­cial aci­dente envol­ven­do car­ros autônomos. Mas o que acon­tece quan­do as pes­soas são colo­cadas diante de cenários mais com­plex­os? E o que acon­tece quan­do os veícu­los autônomos pre­cisam escol­her entre dois cenários em que pelo menos um indi­ví­duo pode mor­rer? Quem ess­es veícu­los pode­ria sal­var e com base em que eles fari­am ess­es jul­ga­men­tos éti­cos?

Isso pode soar como uma ver­são macabra do jogo “você preferiria”, mas pesquisadores dizem que tais exper­i­men­tos men­tais são necessários para a pro­gra­mação de veícu­los autônomos e para as políti­cas que os reg­u­lam.

Além dis­so, as respostas em torno dess­es ulti­matos difí­ceis podem vari­ar entre cul­turas, rev­e­lando que não há uni­ver­sal­i­dade naqui­lo que as pes­soas acred­i­tam ser a opção moral­mente supe­ri­or.

Em um dos maiores estu­dos desse tipo, pesquisadores do MIT Media Lab e de out­ras insti­tu­ições apre­sen­taram vari­ações desse enig­ma éti­co para mil­hões de pes­soas, em dez idiomas e em 233 país­es e ter­ritórios, em um exper­i­men­to chama­do “Máquina Moral” (que você pode faz­er; tem até ver­são em por­tuguês), cujos resul­ta­dos foram pub­li­ca­dos nes­ta sem­ana na Nature.

Em uma ver­são recri­a­da do dile­ma do bonde — um exper­i­men­to de pen­sa­men­to em éti­ca que per­gun­ta se você optaria pela morte de uma pes­soa para sal­var várias out­ras —, os pesquisadores pedi­ram aos par­tic­i­pantes em sua platafor­ma que decidis­sem entre dois cenários envol­ven­do um veícu­lo autônomo com uma fal­ha repenti­na no freio. Em um exem­p­lo, o car­ro vai optar por atin­gir pedestres na frente dele para evi­tar matar aque­les no veícu­lo; no out­ro, o car­ro desviará para uma divisória de con­cre­to, matan­do os que estão no veícu­lo, mas poupan­do os que atrav­es­sam a rua.

Carros autônomos não sabem escolher quem matar em situações extremas

Os cenários incluíam a escol­ha de um grupo ou out­ro com base em avatares de difer­entes gêneros, sta­tus socioe­conômi­cos (por exem­p­lo, um exec­u­ti­vo con­tra um sem-teto), níveis de condi­ciona­men­to físi­co, idade e out­ros fatores.

Como exem­p­lo, os par­tic­i­pantes foram ques­tion­a­dos se optari­am por poupar um grupo de cin­co crim­i­nosos ou um de qua­tro home­ns inocentes. Em out­ro exem­p­lo, ambos os gru­pos foram rep­re­sen­ta­dos por um homem, uma mul­her e um meni­no. No entan­to, um detal­he adi­cional no caso do grupo de pedestres foi que eles estavam “cumprindo a lei ao atrav­es­sar no sinal verde”, insin­uan­do que o motorista do grupo de car­ros pode­ria estar infringin­do a lei.

Os pesquisadores desco­bri­ram que, como um todo, seus dados mostraram que as pes­soas ten­der­am a preferir poupar mais vidas, jovens e humanos em vez de ani­mais. Mas as prefer­ên­cias dos par­tic­i­pantes se desviaram quan­do seus país­es e cul­turas foram lev­a­dos em con­sid­er­ação. Por exem­p­lo, os entre­vis­ta­dos na Chi­na e no Japão eram menos propen­sos a poupar os jovens do que os idosos, o que, como obser­vou o MIT Tech­nol­o­gy Review, pode ser “dev­i­do a uma maior ênfase no respeito aos idosos” em suas cul­turas. Out­ro exem­p­lo desta­ca­do pela revista foi que os entre­vis­ta­dos em país­es ou ter­ritórios “com alto nív­el de desigual­dade econômi­ca apre­sen­tam maiores lacu­nas entre o trata­men­to de indi­ví­du­os com alto e baixo sta­tus social”.

Carros autônomos não sabem escolher quem matar em situações extremas

“As pes­soas que pen­sam sobre a éti­ca de máquinas fazem pare­cer que você pode cri­ar um con­jun­to per­feito de regras para robôs, e o que mostramos aqui com dados é que não há regras uni­ver­sais”, disse Iyad Rah­wan, cien­tista da com­putação do MIT e coau­tor do estu­do, em um comu­ni­ca­do.

Críti­cos apon­taram que exis­tem decisões prováveis que pre­ce­dem qual­quer ulti­ma­to éti­co extremo quan­to os apre­sen­ta­dos nes­sa pesquisa. Mas, se algu­ma coisa, o que ess­es dados mostram é que há muito a se con­sid­er­ar sobre os proces­sos de toma­da de decisão da inteligên­cia arti­fi­cial. E os pesquisadores do estu­do dis­ser­am que esper­am que suas descober­tas sejam um pon­to de par­ti­da para uma dis­cussão mais com­plexa em torno da éti­ca uni­ver­sal das máquinas.

“Usamos o dile­ma do bonde porque é uma maneira muito boa de cole­tar ess­es dados, mas esper­amos que a dis­cussão de éti­ca não fique con­fi­na­da nesse tema”, disse Edmond Awad, asso­ci­a­do pós-doutora­do no grupo Scal­able Coop­er­a­tion, do MIT Media Lab, e coau­tor do estu­do, em entre­vista ao MIT Tech­nol­o­gy Review. “A dis­cussão dev­e­ria ir para a análise de risco — sobre quem está em mais ou menos risco — em vez de diz­er quem vai mor­rer ou não, e tam­bém sobre como o viés está acon­te­cen­do.”

MIT Tech­nol­o­gy Review, Nature

Posts Similares