Maak advertensie toe

Die veld van tegnologie word deur 'n aantal faktore bedreig. Gebruikers vrees byvoorbeeld wanware of verlies aan privaatheid. Maar volgens invloedryke figure in die tegnologiebedryf moet ons ons nie soseer bekommer oor die menslike faktor self nie, maar eerder die verband daarvan met kunsmatige intelligensie. By vanjaar se Wêreld Ekonomiese Forum in Davos het bestuurders van 'n aantal groot tegnologiemaatskappye gevra vir wetgewende regulering van die bedryf. Wat is hul redes om dit te doen?

“Kunsmatige intelligensie is een van die mees diepgaande dinge waaraan ons as mensdom werk. Dit het meer diepte as vuur of elektrisiteit,” het die HUB van Alphabet Inc verlede Woensdag by die Wêreld Ekonomiese Forum gesê. Sundar Pichai, en voeg by dat die regulering van kunsmatige intelligensie 'n globale verwerkingsraamwerk vereis. Satya Nadella, direkteur van Microsoft, en Ginni Rometty, direkteur van IBM, doen ook 'n beroep op die standaardisering van reëls rakende die gebruik van kunsmatige intelligensie. Volgens Nadella is dit vandag, meer as dertig jaar gelede, nodig dat die Verenigde State, China en die Europese Unie reëls daarstel wat die belangrikheid van kunsmatige intelligensie vir ons samelewing en vir die wêreld bepaal.

Pogings deur individuele maatskappye om hul eie etiese reëls vir kunsmatige intelligensie daar te stel, het in die verlede op protes te staan ​​gekom nie net van die werknemers van hierdie maatskappye nie. Google moes byvoorbeeld in 2018 onttrek aan die geheime regeringsprogram Project Maven, wat tegnologie gebruik het om beelde van militêre hommeltuie te ontleed, ná massiewe terugslag. Stefan Heumann van die Berlyn-gebaseerde dinkskrum Stiftung Neue Verantwortung, in verband met die etiese kontroversies rondom kunsmatige intelligensie, sê dat politieke organisasies die reëls moet stel, nie maatskappye self nie.

Die Google Home-slimluidspreker gebruik kunsmatige intelligensie

Die huidige vlaag betogings teen kunsmatige intelligensie het 'n duidelike rede vir hierdie tydsberekening. Oor net 'n paar weke moet die Europese Unie sy planne vir die betrokke wetgewing verander. Dit kan byvoorbeeld regulasies rakende die ontwikkeling van kunsmatige intelligensie in sogenaamde hoërisiko-sektore soos gesondheidsorg of vervoer insluit. Volgens die nuwe reëls sal maatskappye byvoorbeeld in die raamwerk van deursigtigheid moet dokumenteer hoe hulle hul KI-stelsels bou.

In verband met kunsmatige intelligensie het verskeie skandale reeds in die verlede verskyn – een daarvan is byvoorbeeld die Cambridge Analytica-aangeleentheid. In die Amazon-maatskappy het werknemers gebruikers deur die digitale assistent Alexa afgeluister, en in die somer van verlede jaar het 'n skandaal weer losgebars weens die feit dat die maatskappy Google - of die YouTube-platform - data van kinders onder die ouderdom van dertien ingesamel het. sonder ouerlike toestemming.

Terwyl sommige maatskappye swyg oor hierdie onderwerp, volgens die verklaring van sy visepresident Nicola Mendelsohn, het Facebook onlangs sy eie reëls ingestel, soortgelyk aan die Europese GDPR-regulasie. Mendelsohn het in 'n verklaring gesê dit is die gevolg van Facebook se strewe na wêreldwye regulering. Keith Enright, wat in beheer is van privaatheid by Google, het op 'n onlangse konferensie in Brussel gesê die maatskappy soek tans maniere om die hoeveelheid gebruikersdata wat ingesamel moet word te minimaliseer. "Maar die wydverspreide gewilde bewering is dat maatskappye soos ons s'n probeer om soveel data as moontlik in te samel," hy het verder gesê en bygevoeg dat dit riskant is om data te hou wat geen waarde vir gebruikers inhou nie.

Dit lyk of die reguleerders in elk geval nie die beskerming van gebruikersdata onderskat nie. Die Verenigde State werk tans aan federale wetgewing soortgelyk aan die GDPR. Op grond daarvan sal maatskappye toestemming van hul kliënte moet kry om hul data aan derde partye te verskaf.

Siri FB

bron: Bloomberg

.