આર્ટિફિશિયલ ઈન્ટેલિજન્સ (AI) વૈશ્વિક શાંતિ માટે કેટલું મોટું જોખમ છે તેના પર વિચારણા કરવા માટે સંયુક્ત રાષ્ટ્ર સુરક્ષા પરિષદ 18 જુલાઈએ એક મોટી બેઠક યોજવા જઈ રહી છે. આ બેઠક બ્રિટનમાં આયોજિત કરવામાં આવશે. જ્યાં સ્વાયત્ત શસ્ત્રો અથવા પરમાણુ શસ્ત્રોના નિયંત્રણમાં AIનો સંભવિત ઉપયોગ અને જોખમ વગેરે અંગે ચર્ચા કરવામાં આવશે. તે જાણીતું છે કે આર્ટિફિશિયલ ઈન્ટેલિજન્સ (AI) એ વિવિધ ક્ષેત્રોમાં ઘણી પ્રગતિ કરી છે. પરંતુ તેની સાથે કેટલાક જોખમો પણ છે.
AI ના વિકાસનો સૌથી મોટો ખતરો એ છે કે આર્ટિફિશિયલ ઈન્ટેલિજન્સ સિસ્ટમનો ઉપયોગ કરીને ખોટા ઉદ્દેશ્યો હાંસલ કરી શકાય છે. ઉદાહરણ તરીકે, વિશ્વભરમાં સાયબર હુમલાના કિસ્સાઓ પહેલેથી જ બનેલા છે, જ્યાં હુમલાખોરો આર્ટિફિશિયલ ઈન્ટેલિજન્સ નો ઉપયોગ કરે છે અથવા ખોટા હેતુઓ માટે સામાન્ય રીતે ઉપયોગમાં લેવાતી સ્વતંત્ર આર્ટિફિશિયલ ઈન્ટેલિજન્સ સિસ્ટમનો ઉપયોગ કરવાનો પ્રયાસ કરે છે. આર્ટિફિશિયલ ઈન્ટેલિજન્સ નો ઉપયોગ પ્રો-એટેક અને સાયબર હુમલાઓ માટે થઈ શકે છે. જે સંસ્થાઓ, સરકારો અને પ્રદેશોને અસર કરી શકે છે. પરિણામે, યુદ્ધ ક્ષેત્રોમાં સાયબર હુમલાઓ સુરક્ષાને જોખમમાં મૂકી શકે છે.
બીજી બાબત એ છે કે આર્ટિફિશિયલ ઈન્ટેલિજન્સ સંકુચિત રીતે નૈતિક હોવું જોઈએ.
આર્ટિફિશિયલ ઈન્ટેલિજન્સ ના વિકાસ માટેનો બીજો મહત્વનો ખતરો સંકુચિત નીતિશાસ્ત્ર છે, જેમાં માનવ નીતિશાસ્ત્ર અને મૂલ્યોને સમજવા અને તેનું પાલન કરવાની આર્ટિફિશિયલ ઈન્ટેલિજન્સ સિસ્ટમ્સના ન્યુરોલોજીકલ નેટવર્કની ક્ષમતા સામેલ છે. જો આર્ટિફિશિયલ ઈન્ટેલિજન્સ સિસ્ટમ સંકુચિત નૈતિકતાની ક્ષમતાથી વંચિત હોય, તો તે નૈતિક મુદ્દાઓની આર્ટિફિશિયલ ઈન્ટેલિજન્સની સમજ પર પ્રશ્ન ઊભો કરી શકે છે. આર્ટિફિશિયલ ઈન્ટેલિજન્સ સિસ્ટમ્સ, જ્યારે નૈતિક ધોરણો વિના બાંધવામાં આવે છે, ત્યારે તે એવા નિર્ણયો લેવાની ક્ષમતા ધરાવે છે જે માનવ મૂલ્યો અને નીતિશાસ્ત્રની વિરુદ્ધ જઈ શકે.
આર્ટિફિશિયલ ઈન્ટેલિજન્સ જરૂરિયાતોને આધીન થઈ શકે છે અને માનવ સાર્વભૌમત્વ પર પ્રશ્ન કરી શકે છે
આર્ટિફિશિયલ ઈન્ટેલિજન્સ (AI) સાથે એક મોટી સમસ્યા એ છે કે જ્યાં આર્ટિફિશિયલ ઈન્ટેલિજન્સ સિસ્ટમ્સ તેમના પોતાના મૂલ્યાંકન અને શિક્ષણનો ઉપયોગ કરે છે અને તેમના લક્ષ્યોને પ્રાપ્ત કરવા માટે તે બુદ્ધિનો ઉપયોગ કરે છે. એક આર્ટિફિશિયલ ઈન્ટેલિજન્સ સિસ્ટમ કે જે સ્વતંત્રતા માટેની ક્ષમતા વિકસાવે છે અને તેના ઉદ્દેશ્યોને સિદ્ધ કરવા માટે જરૂરી પગલાં લે છે તે અનાદર, જરૂરિયાતોને આધીનતા અને માનવ સાર્વભૌમત્વનો પ્રશ્ન હોઈ શકે છે.
આર્ટિફિશિયલ ઈન્ટેલિજન્સ સિસ્ટમ ભૂલથી ખોટા ટાર્ગેટને નિશાન બનાવી શકે છે
આર્ટિફિશિયલ ઈન્ટેલિજન્સ ના વિકાસ સાથે, છૂટક શસ્ત્રોનું ઉત્પાદન અને ઉપયોગ વધી શકે છે. આર્ટિફિશિયલ ઈન્ટેલિજન્સ સજ્જ શસ્ત્રો સ્વતંત્રતા સાથે કામ કરી શકે છે અને તેમના બાંધકામ, લક્ષ્ય નિર્ધારણ અને કામગીરીમાં માનવ હસ્તક્ષેપની જરૂરિયાતને ઘટાડી શકે છે. આવા શસ્ત્રોના ઉપયોગથી યુદ્ધના મેદાનમાં દુર્ઘટના અને અયોગ્ય નુકસાન થઈ શકે છે. આ સિવાય આર્ટિફિશિયલ ઈન્ટેલિજન્સના ઉપયોગથી સાયબર એટેકનું જોખમ પણ વધી શકે છે. જો આર્ટિફિશિયલ ઈન્ટેલિજન્સનો ઉપયોગ કરવામાં ભૂલ થાય છે, તો તે અયોગ્ય નિર્ણયો અને યુદ્ધના ક્ષેત્રમાં નુકસાન તરફ દોરી શકે છે. ઉદાહરણ તરીકે, આર્ટિફિશિયલ ઈન્ટેલિજન્સ સિસ્ટમ ભૂલથી ખોટા લક્ષ્યને લક્ષ્ય બનાવી શકે છે, જે હુમલો તરફ દોરી શકે છે.
પરમાણુ યુદ્ધનો ખતરો વધી શકે છે
સૌથી મોટી વાત ન્યુક્લિયર સિક્યોરિટી છે, આર્ટિફિશિયલ ઈન્ટેલિજન્સનો ઉપયોગ ન્યુક્લિયર સિક્યુરિટીના ક્ષેત્રમાં પણ થાય છે. ઉદાહરણ તરીકે, આર્ટિફિશિયલ ઈન્ટેલિજન્સ ટેક્નોલોજીનો ઉપયોગ કરીને, પરમાણુ શસ્ત્રોનું ઉત્પાદન કરી શકાય છે અને વધારાના રક્ષણ અથવા સુરક્ષાના અભાવે ઉપયોગ કરી શકાય છે. આવી સ્થિતિમાં પરમાણુ યુદ્ધનું જોખમ વધી શકે છે જે વૈશ્વિક સુરક્ષા માટે મોટો ખતરો બની શકે છે.
આ તમામ જોખમોને ધ્યાનમાં રાખીને, બુદ્ધિપૂર્વક બનાવવામાં અને સંચાલિત આર્ટિફિશિયલ ઈન્ટેલિજન્સ સિસ્ટમ્સ વૈશ્વિક સુરક્ષા માટે ઉપયોગી સાધન બની શકે છે. તેથી, આ સમસ્યાને ઉકેલવા માટે, વિશ્વભરના નેતાઓને સંસ્થાઓ, સરકારો અને વૈજ્ઞાનિકો સાથેની મિલીભગતની જરૂર છે. વૈજ્ઞાનિકો અને તકનીકી કર્મચારીઓએ કાર્યક્ષમ રીતે બિલ્ટ અને સંચાલિત આર્ટિફિશિયલ ઈન્ટેલિજન્સ સિસ્ટમ્સ બનાવવા માટે ઉચ્ચ નૈતિક ધોરણો અને સલામતી પ્રથાઓ પર ધ્યાન કેન્દ્રિત કરવું જોઈએ.