AI; ನಿಮ್ಮ ಮಕ್ಕಳ ‘ಧ್ವನಿ’ ಕೇಳಿ ಮೋಸ ಹೋಗದಿರಿ ಜೋಕೆ!
ಎಐ 'ಧ್ವನಿ ನಕಲು' ಬಳಸಿ ವಂಚನೆ ಪ್ರಕರಣ ಹೆಚ್ಚಳ
Team Udayavani, Mar 19, 2024, 6:47 AM IST
ಹೊಸದಿಲ್ಲಿ: ನಿಮಗೊಂದು ಫೋನ್ ಕರೆ ಬರುತ್ತದೆ. “ನಿಮ್ಮ ಮಗಳು ನಮ್ಮ ಬಳಿ ಯಿ ದ್ದಾಳೆ. ಆಕೆ ಜೀವಂತವಾಗಿ ಬೇಕೆಂ ದರೆ ಇಷ್ಟು ಲಕ್ಷ ಹಣ ರವಾನಿಸಿ’ ಎಂದು ವ್ಯಕ್ತಿಯೊಬ್ಬ ಬೆದರಿಕೆ ಹಾಕುತ್ತಾನೆ. ಜತೆಗೆ, “ಅಮ್ಮಾ ಕಾಪಾಡು’ ಎಂಬ ನಿಮ್ಮ ಮಗಳ ಧ್ವನಿಯೂ ಕೇಳಿಸುತ್ತದೆ!
ಗಾಬರಿಗೊಳ್ಳುವ ನೀವು, ಅಪಹರಣ ಕಾರ ಕೇಳಿದಷ್ಟು ಹಣ ರವಾನಿಸುತ್ತೀರಿ. ಆದರೆ ವಾಸ್ತವದಲ್ಲಿ ನಿಮ್ಮ ಮಗಳು ಕಿಡ್ನಾéಪ್ ಆಗಿರುವುದೇ ಇಲ್ಲ.
ಹೌದು. ಇತ್ತೀಚೆಗೆ ಕೃತಕ ಬುದ್ಧಿ ಮತ್ತೆ (ಎಐ) ಆಧರಿತ ಧ್ವನಿ ನಕಲು ಮಾಡುವ (ವಾಯ್ಸ ಕ್ಲೋನಿಂಗ್) ಸಾಫ್ಟ್ವೇರ್ ಬಳಸಿಕೊಂಡು ನಿಮ್ಮ ಪ್ರೀತಿಪಾತ್ರರ ಧ್ವನಿ ಯನ್ನೇ ನಕಲು ಮಾಡಿ “ಅಪಹರಣ’ದ ಹೆಸರಲ್ಲಿ ಹಣ ದೋಚುವ ವಂಚಕರ ಸಂಖ್ಯೆ ಹೆಚ್ಚುತ್ತಿದೆ. ಮಧ್ಯಪ್ರದೇಶ ಸೇರಿ ದಂತೆ ಹಲವೆಡೆ ಇಂಥ ಪ್ರಕರಣಗಳು ದಾಖಲಾಗಿವೆ ಎಂದು ಸೈಬರ್ಕ್ರೈಂ ತಜ್ಞ, ನಿವೃತ್ತ ಐಪಿಎಸ್ ಅಧಿಕಾರಿ ತ್ರಿವೇಣಿ ಸಿಂಗ್ ಹೇಳಿದ್ದಾರೆ.
ಧ್ವನಿ ಮಾದರಿ ಎಲ್ಲಿ ಸಿಗುತ್ತದೆ? ದೇಶದಲ್ಲಿ ಶೇ.53ಕ್ಕಿಂತ ಹೆಚ್ಚಿನ ಯುವ ಜನತೆ ವಾರದಲ್ಲಿ 1ಬಾರಿ ಯಾದರೂ ಜಾಲತಾಣ ಗಳಲ್ಲಿ ತಮ್ಮ ಧ್ವನಿ ಹಂಚಿಕೊ ಳ್ಳುತ್ತಾರೆ. ಕೇವಲ 3 ಸೆಕೆಂಡು ಧ್ವನಿ ಮಾದರಿ ಸಿಕ್ಕರೆ, ಶೇ.85ರಷ್ಟು ಸಾಮತ್ಯೆ ಇರುವ ಮೂಲಧ್ವನಿ ಮರುಸೃಷ್ಟಿ ಸಾಧ್ಯ.
ಟಾಪ್ ನ್ಯೂಸ್
ಈ ವಿಭಾಗದಿಂದ ಇನ್ನಷ್ಟು ಇನ್ನಷ್ಟು ಸುದ್ದಿಗಳು
WhatsApp ಭಾರತದಲ್ಲಿ ಸ್ಥಗಿತಗೊಳಿಸ್ತೇವೆ; ಹೈಕೋರ್ಟ್ ಮೆಟ್ಟಿಲೇರಿದ ಪ್ರಕರಣ, ಏನಿದು?
Reliance Jio Profit; ರಿಲಯನ್ಸ್ ಜಿಯೊ ನಿವ್ವಳ ಲಾಭ ಶೇ 13ರಷ್ಟು ಹೆಚ್ಚಳ
History TV18ನಲ್ಲಿ ವಿಶ್ವದ ಮೊದಲ ಬ್ರೈಲ್ ಸಾಹಿತ್ಯ ಸಾಧನ “ಬೆಂಗಳೂರಿನ ಆನಿ” ಪ್ರಸಾರ
HP ಯಿಂದ AI ಆಧಾರಿತ ಎರಡು ಹೊಸ ಲ್ಯಾಪ್ ಟಾಪ್ ಬಿಡುಗಡೆ
Digital: ಇನ್ನು ಯುಪಿಐ ಮೂಲಕ ನಗದು ಜಮೆಗೆ ಅವಕಾಶ