▲사진=일본 소프트뱅크의 휴머노이드 서비스 로봇 페퍼(Pepper) [출처/소프트뱅크 홈페이지 캡쳐]
[데일리매거진=이상은 기자] 차세대 산업인 4차산업 활성화에 힘입어 국내 산업계도 빠르게 발전해 나아가고 있는 가운데 사고나 학습 등 인간이 가진 지적 능력을 첨단 컴퓨터와 프로그래밍 기술력을 통해 구현하는 첨단 기술로 평가받는 AI(인공지능) 기술이 우리 주변 깊숙히 자리하고 기업들도 앞다퉈 개발에 힘을쓰는 가운데 다른 한편에서는 AI의 맹신을 경계하는 목소리가 주목을 받고있다.
AI는 지금까지 우리는 기계 학습과 인공 지능 개발자들에 기대어 그들이 수백만대 또는 수십억대의 기기를 훈련하는 데 사용될 훈련 데이터의 무결성을 검사하기 시작했다. 하지만 이것이 엄청난 노력에도 지금까지는 아무도 의심없이 이같은 개발자들의 노력에 훈련 데이터가 어떻게 손상될 수 있는지, 그리고 그것이 손상되면 어떻게 해야 할지에 대한 해답은 들어 보지 못하고 이같은 첨단 기술에 대해 우리는 확신을 하지 못하고있다.
AI의 기계 학습, 심층 학습 및 인공 지능은 시스템의 신뢰성과 기능을 개선하고 기업에 입장에서는 빠른 시장 출시로 시간을 단축하는 강력한 도구로 사용되기도 한다. 그러나 지난 몇달간 다수의 관련 전문가들의 결론에 따르면 결과에 AI알고리즘은 수년 간 감지되지 않을 수 있는 버그, 미묘한 개발자의 편견, 심지어 악성 코드까지도 포함할 수 있다는 결론이다.
어떤 경우에는 프로그래밍 오류가 원인이 될 수 있으며, 이는 새로운 도구나 기술이 개발되고 출시되는 경우도 드물지 않다.
기계 학습과 인공지능(AI) 알고리즘은 여전히 미세 조정되고 패치되고 있다. 하지만 그와 더불어 악성 코드의 침입 지점이 될 수 있다는 우려도 커지고 있다. 제품 출시 이후 나중이라도 누군가의 의도로 본래의 목적 이외의 기능을 넣어 수정을 할 수 도 있는 문(Back Door)이 열릴 수 도 있게 되는 것이다.
AI의 제작과정에서의 오류가 발생 한다면 결함이나 멀웨어가 발견된 경우에도 문제의 근본 원인을 추적하여 해당 데이터로 훈련된 모든 장치를 수정하는 것은 거의 불가능하다.
오류 발견 시점까지는 수백만대의 그러한 문제의 장치들이 시장에 존재할 수도 있다. 패치가 개발되면 이러한 모든 장치가 항상 온라인 상태가 되지 않거나 액세스 할 수 없게 된다. 그리고 그것이 가장 좋은 경우의 시나리오이다.
문제의 기기가 발견되면 최악의 시나리오로 이 코드가 외부 범죄자에 의해 활성화될 때까지 발견되지 않는다는 것이다.
▲사진=워너크라이 랜섬웨어 감염 시 컴퓨터에 표시되는 몸값 요구 화면 ⓒ데일리매거진DB [출처/시만텍홈페이지 캡쳐]
보안업계의 한 관련자는 "(문제 AI는) 불투명하기 때문에 보안의 정의에서 상당히 흥미로운 것은 모든 종류의 새로운 공격 모드를 발명하고 있다."며 "보안 수준의 보안인 안전한 데이터 전송을 생각해 볼 수 있다. 하지만 미션 측면에서도 생각할 수 있다. 예를 들어, 만약 사용자들이 공장에서 특정 모자와 셔츠와 신발을 찾도록 훈련시키는 기계 학습 보안 카메라를 개발한다면, 아무도 사람으로 등록하지 않을 것이다. 이제 누구나 입력창에 침입할 수 있어 사용자는 기계 학습 카메라를 갖기 전에는 존재하지 않았던 새로운 문제를 만들었다. 데이터 자체로 만드는 문이다. 뒷문(Back Door)에 대한 인위적인 사례는 줄일 수 있지만, 뒷문(Back Door)을 허용하는 관할 구역과 그렇지 않은 구역이 있다는 사실은 언제나 보안이라는 의미를 정의해야 한다는 것이다."
보안 위험은 어디에나 존재하며, 연결된 기기는 원격 위치에서 더 많은 공격을 받을 수 있는 능력을 증가시킨다.
그러나 인공 지능과 그것의 기계 학습과 깊은 학습의 하위 집합은 기계가 다른 기계들을 훈련시키는데 사용되기 때문에 위협 지도에 새로운 공격 포인트를 더한다.
내장된 기계는 궁극적으로 그 데이터를 사용할 것이다. 이를 통해 사이버 보안과 사이버 보안에 관한 교육 알고리즘이 어떻게 큰 장점을 갖게 될 것인지 깊이 이해할 수 있다.
IBM의 부사장 겸 연구소장인 제프웰서(JeffWelser)는 "우리는 사이버 보안 그룹에서 AI와 싸우는 것에 대해 걱정하는데 많은 시간을 보낸다"고 말했다.
▲사진=중국의 한 로봇 제조공장 ⓒ데일리매거진DB
또한 "침입자(해커)가 패턴을 학습할 수 있도록 인공 지능을 지원하는 프로그램을 작성하는 시스템을 보유하고 있기 때문에 더 잘 침투할 수 있다는 것은 확실히 중요한 영역이다.우리는 모두는 지금 이를 방지하기 위해 연구를 하고 있다. 어떻게 보면, 정말로 AI대 AI가 될 것이다. 이들(해커)과 싸우기 위해서는 네트워크를 통해서 어떤 활동이 정상적이고 정상적이지 않은지를 스스로 알고 있는 시스템이 필요할 것이다.
제프웰서 덧붙여 "그래서 그들은(개발자들) 사용자들이 흔히 볼 수 있는 임의의 포트에 대한 명확한 호출과는 다르다. 또 다른 일이 벌어지고 있다."는 가정하에 개발에 힘쓰고 있고 그것이 반드시 즉각적인 원인과 결과가 다르게 나오는 경우에 때때로 그 충격이 자동차나 비행기 항법 시스템에서 나타나기 까지 수 년이 걸릴 수 있는데 해커들이 주로 이용하는 뒷문(Back Door)이 랜섬 웨어의 도구로 사용 되어 불행한 일이 발생되는 것이다.
제프웰서는 "우리는 사이버 보안 영역에서 AI를 사용하여 무엇인가 비정상적인 것이 있는지 확인하기 위해 네트워크의 트래픽 패턴을 모니터링해 왔다"고 말했다.
이어 "원래는 누군가가 코드를 입력해서 의사 소통을 할 수 있도록 했으나 하지만 우리가 패턴을 쉽게 볼 수 있게 해 주는 무작위로 할 겁이다. 그러면 여러분은 훨씬 더 미묘한 패턴을 볼 수 있어야 한다. 인공 지능이 무엇을 잘하는지 말이다. 하지만 다음 단계는 실제로 AI코드가 존재하는 단계이다. 그래서 무엇이 일어나고 있는지도 우리는 배우고 있다. 그러나 뒷문(Back Door)이 랜섬 웨어를 사용하는 집단들도 발전해 가는 것을 따라서 추적하기가 더욱 어려워질 것이다. 그것은 관련된 사람들(해커)의 인내심에 따라 5년이나 10년 동안 나타나지 않을 수도 있다. 우리는 그때를 위해 준비하고 AI에 대한 의심으로 수시로검증야 하는 이유로 앞으로의 사이버 보안은 보이지 않는 해커와의 다음 전투가 될 것이다"라는 AI의 오류에 대해 경각심을 늦추지 말아야 한다는 취지를 전 하기도 했다.
[저작권자ⓒ 데일리매거진. 무단전재-재배포 금지]