PAHPADHA پهپادها

Intelligent Aerospace Center

02128426036
INFO@PAHPADHA.COM

پهپادها با استفاده از هوش مصنوعی قادر به تشخیص خشونت در جمعیت هستند

بسیاری از مردم هنوز از نظرات همگانی مبتنی بر پهپاد وحشت دارند، اما این باعث نمی شود که محققان به دنبال راه های موثرتر و کارسازتر برای پایش هوایی نباشند. تیمی از محققان اخیراً پهپادی آزمایشی توسعه داده اند که با استفاده از هوش مصنوعی قادر به تشخیص حرکات خشونت آمیز در جمعیت است. این تیم الگوریتم یادگیری ماشین خود را به گونه ای تربیت کرده که قادر به تشخیص مجموعه ای از حرکات خشونت آمیز رایج (مثل مشت زدن، لگد زدن، تیراندازی و چاقوزنی) باشد.

این تکنولوژی در تئوری می تواند به تشخیص درگیری های زمینی که نیروهای پلیس همواره قادر به تشخیص آنها نیستند یا تخمین محلی که صدای تیراندازی آز آنجا آمده کمک کند. البته این تکنولوژی هنوز برای استفاده در دنیای واقعی آماده نیست. در عوض محققان با کمک چند داوطلب و در شرایط ایده آل به آزمایش ابداع خود پرداخته اند. در بهترین حالت، هوش مصنوعی دقتی معادل 94 درصد اما هنگامی که تعداد افراد حاضر در صحنه به 10 نفر می رسد، این دقت به 79 درصد کاهش می یابد.

به همین خاطر، سیستم مورد اشاره هنوز در یافتن مهاجم در خیابان های شلوغ با مشکل مواجه است و اگر به همین زودی در دنیای واقعی مورد استفاده قرار گیرد ممکن است ژست فردی بی گناه را به عنوان حمله در نظر بگیرد. محققان می گویند که برای آزمایش هوش مصنوعی و یادگیری ماشین خود، پهپادهایشان را بر فراز دو فستیوال در کشور هند به پرواز در خواهند آورند.

اما مشکلی بزرگ تر درباره این تکنولوژی وجود دارد که در واقع به موانع اخلاقی مربوط می شود. سیستم های تشخیص چهره هم اکنون با سوالاتی مثل احتمال سو استفاده از قدرت و میزان اتکاپذیری مواجه هستند. دولت ها می توانند به بهانه استفاده از این تکنولوژی برای امنیت، حرکات مردم را زیر نظر گرفته و حتی از آن علیه معترضینی که به هر دلیلی به خیابان ها آمده اند استفاده کنند. از نظر اتکاپذیری نیز دولت ها باید به مردم آرامش خاطر دهند که یک دست دادن ساده در خیابان، به یورش پلیس به منزل آنها منجر نخواهد شد.


Drone-based surveillance still makes many people uncomfortable, but that isn't stopping research into more effective airborne watchdogs. Scientists have developed an experimental drone system that uses AI to detect violent actions in crowds. The team trained their machine learning algorithm to recognize a handful of typical violent motions (punching, kicking, shooting and stabbing) and flag them when they appear in a drone's camera view. The technology could theoretically detect a brawl that on-the-ground officers might miss, or pinpoint the source of a gunshot.

As The Verge warned, the technology definitely isn't ready for real-world use. The researchers used volunteers in relatively ideal conditions (open ground, generous spacing and dramatic movements). The AI is 94 percent effective at its best, but that drops down to an unacceptable 79 percent when there are ten people in the scene. As-is, this system might struggle to find an assailant on a jam-packed street -- what if it mistakes an innocent gesture for an attack? The creators expect to fly their drone system over two festivals in India as a test, but it's not something you'd want to rely on just yet.

There's a larger problem surrounding the ethical implications. There are questions about abuses of power and reliability for facial recognition systems. Governments may be tempted to use this as an excuse to record aerial footage of people in public spaces, and could track the gestures of political dissidents (say, people holding protest signs or flashing peace symbols). It could easily combine with other surveillance methods to create a complete picture of a person's movements. This might only find acceptance in limited scenarios where organizations both make it clear that people are on camera and with reassurances that a handshake won't lead to police at their door.


DIGIATO-Engadget

دیدگاه خود را بنویسید

دیدگاه پس از تائید مدیریت منتشر می شود.
 
منوی وب‌سایت