Elon Musk en honderden AI-experts roepen op tot ‘Killer Robots’

Een open brief van experts van toonaangevende AI- en robotica-bedrijven over de hele wereld heeft de VN opgeroepen het gebruik van dodelijke autonome wapens te verbieden - ook bekend als 'Killer Robots'.




MQ-9 Reaper Drone

Een open brief ondertekend door 116 experts behorend tot robotica en kunstmatige intelligentie bedrijven uit 26 landen op de International Joint Conference on Artificial Intelligence (IJCAI) is verhuisd om de VN aan te sporen om onmiddellijk stappen te ondernemen om het gebruik van robots in de wapenwedloop te beteugelen.

Een ‘Killer Robot’ wordt gedefinieerd als een autonoom wapensysteem dat in staat is een doelwit te identificeren en aan te trekken zonder dat daarvoor menselijke tussenkomst vereist is. Terwijl de technologie nog in ontwikkeling is, bewegen velen zich ertegen.



Canada's Clearpath Robotics was het eerste bedrijf dat in beroep ging voor een verbod op de geautomatiseerde wapens die door AI worden bestuurd en nu hebben 115 meer bedrijfsleiders deelgenomen aan de race tegen Killer Robots.

'Autonome wapensystemen staan ​​momenteel op het punt van ontwikkeling en hebben een zeer reëel potentieel om onschadelijke mensen aanzienlijke schade toe te brengen, samen met wereldwijde instabiliteit,' zei Ryan Gariepy, oprichter en CTO van Clearpath Robotics, die ook als eerste tekende.

Meer in nieuws: AI ondersteund door Elon Musk Beats Top Pro Dota-spelers

'De ontwikkeling van dodelijke autonome wapensystemen is onverstandig, onethisch en moet op internationale schaal worden verboden,' voegde hij eraan toe.

De eerste brief die in 2015 werd uitgebracht op de IJCAI in Buenos Aires werd onderschreven door onder meer de Britse natuurkundige Stephen Hawking, mede-oprichter van Apple Steve Wozniak en cognitiewetenschapper Noam Chomsky. De brief waarschuwde voor het gevaar van autonome wapens.

'Dodelijke autonome wapens dreigen de derde revolutie in oorlogvoering te worden', aldus de recente brief. “Als ze eenmaal zijn ontwikkeld, zullen ze toestaan ​​dat gewapende conflicten worden uitgevochten op een schaal die groter is dan ooit, en soms sneller dan mensen kunnen begrijpen.

Qinetiq MAARS

De ondertekenaars van de brief van 2017 omvatten maar zijn niet beperkt tot:

  • Elon Musk, oprichter van Tesla, SpaceX en OpenAI (VS)
  • Mustafa Suleyman, oprichter en hoofd van Applied AI bij Google's DeepMind (VK)
  • Esben Ostergaard, oprichter en CTO van Universal Robotics (Denemarken)
  • Jerome Monceaux, oprichter van Aldebaran Robotics, makers van Nao- en Pepper-robots (Frankrijk)
  • Jurgen Schmidhuber, vooraanstaand expert in diep leren en oprichter van Nnaisense (Zwitserland)
  • Yoshua Bengio, vooraanstaand expert in diep leren en oprichter van Element AI (Canada)

'Dit kunnen terreurwapens zijn, wapens die despoten en terroristen gebruiken tegen onschuldige bevolkingsgroepen en wapens die zijn gehackt om zich op ongewenste manieren te gedragen,' voegt de brief eraan toe.

Meer in nieuws: Deze AI-aangedreven oplossing helpt mensen met een visuele beperking

“We hoeven niet lang te handelen. Als de doos van deze Pandora eenmaal is geopend, zal het moeilijk zijn om te sluiten, 'verklaart het, met een dringend pleidooi voor de VN' om een ​​manier te vinden om ons allemaal tegen deze gevaren te beschermen. '

Ondertekenaars van de 2017 brief uit India:

  • Fahad Azad, oprichter van Robotsoft Systems
  • Debashis Das, Ashish Tupate, Jerwin Prabu, oprichters (incl. CEO) van Bharati Robotics
  • Pranay Kishore, oprichter en CEO van Phi Robotics Research
  • Pulkit Gaur, oprichter en CTO van Gridbots Technologies
  • Shahid Memom, oprichter en CTO van Vanora Robots
  • Krishnan Nambiar en Shahid Menon, oprichter, CEO en CTO van Vanora Robotics
  • Achu Wilson, oprichter en CTO van Sastra Robotics