검색
-
-
[퓨처 Eyes(28)] 챗GPT와 제미나이도 무너뜨리는 AI 웜 모리스 II 등장
- 생성 인공지능(AI) 시스템을 악용하여 악성코드를 확산시키고 데이터를 탈취할 수 있는 새로운 형태의 AI웜(멀웨어·malware, 악성 소프트웨어의 줄임말) 개발이 가능하다는 사실이 밝혀졌다. 이는 생성 AI 활용의 취약점을 보여주며, 빠르게 발전하는 AI 분야에서 보안 위험에 대한 중요성을 강조한다. 뉴욕주 이타카에 위치한 코넬 테크(Cornel Tech) 대학 연구팀은 '모리스 II'라는 AI웜을 개발해 생성 AI 시스템 악용 시나리오를 제시했다. 스스로 확산되는 AI 기반 멀웨어를 개발한 연구원들은 "이 기술이 이전에는 불가능했던 새로운 종류의 사이버 공격을 수행하거나 수행할 수 있는 능력을 갖게 되었다는 것을 의미한다"고 우려했다. 아직 동료 검사 과정을 거치지 않았지만, 이 연구는 생성 AI가 악성코드 개발에 활용될 수 있다는 심각한 우려를 낳고 있다. 이메일 가상 비서 대상 테스트 와이어드, 퓨처리즘 등 다수 외신에 따르면 연구팀은 제어된 환경에서 실험을 진행해 오픈AI의 챗GPT 최신버전인 GPT-4, 구글의 제미나이 프로, 그리고 라바(LLaVA)라는 오픈소스 대형 언어 모델을 사용하는 이메일 가상 비서를 공격 대상으로 삼았다. 코넬대 연구팀은 '적대적 자기 복제 프롬프트(adversarial self-replicating prompt)'라는 기술을 사용해 악의적인 프롬프트를 주입했다. 인터레스팅엔지니어링에 따르면, 모리스 II는 악성 프롬프트(prompts)를 주입하여 생성 AI 모델을 조작하고, 이를 통해 스팸 메시지 전송, 허위 정보 유포, 개인 정보 탈취 등의 악의적인 활동을 수행할 수 있다. 와이어드의 보도에 따르면 이 웜은 AI 기반 이메일 비서를 공격해 이메일에서 개인 정보와 관련된 민감한 데이터를 얻고 다른 시스템을 감염시키는 스팸 메시지를 발송할 수 있다. 이 논문의 공동 저자인 코넬 테크 연구원 벤 나시는 와이어드에 "AI웜의 출현은 기본적으로 이전에는 볼 수 없었던 새로운 종류의 사이버 공격을 수행할 수 있는 능력을 갖게 되었다는 것을 의미한다"고 말했다. 연구팀은 생성 AI 활용 방식에 따라 두 가지 유형의 취약점을 제시했다. 첫 번째는 생성 AI 서비스 결과에 의존하는 프로그램이다. 이러한 프로그램은 악성 소프트웨어에 의해 조작되거나 악용될 수 있다. 두 번째는 RAG(Recurrent Aggregation of Generative Models, 생성 모델의 반복적 집합) 기술을 사용하여 AI 쿼리를 향상시키는 프로그램이다. 이러한 프로그램은 특히 RAG 기반 생성 AI 웜 공격에 취약하다. 이 연구는 생성 AI 시스템의 보안 취약점을 식별하고 새로운 종류의 멀웨어 공격 가능성을 제시한다. 이를 통해 향후 생성 AI 개발 시 보안을 강화하는 데 기여할 수 있다. 아직까지 실제 환경에서 생성 AI 웜 멀웨어가 발견된 사례는 없다. 심각한 사생활 침해 우려 연구팀은 논문에서 "생성 AI 웜이 '가까운 미래'에 실제 환경에 확산될 경우 '심각하고 불가피한 악영향'을 초래할 수 있다"고 지적했다. 이는 기업들이 생성 AI 가상 비서를 서비스에 도입하기 전에 사이버 보안 위험에 대한 철저한 사전 검토가 필수임을 시사한다. 나시는 와이어드 인터뷰에서 "이름, 전화번호, 신용카드 번호, 주민등록번호 등 기밀 정보가 포함될 수 있다"고 밝혔다. 즉, 이러한 AI 비서는 방대한 양의 개인 데이터에 접근할 수 있으며, 이는 사용자의 사생활 침해로 이어질 수 있다. 연구팀은 새롭게 구축된 메시지 전송 시스템을 활용하여 전송된 이메일 데이터베이스를 효과적으로 '오염'시키고, 이메일 수신인의 가상 비서 AI가 이메일에서 사용자의 이름, 전화 번호, 신용카드 번호, 사회 보장 번호 등 민감한 정보를 탈취하도록 유도했다. 더욱 심각한 문제는 이 과정을 통해 AI 웜이 새로운 컴퓨터로 전파될 수 있다는 점이다. 연구팀은 심지어 이미지에 악성 프롬프트를 삽입해 AI가 다른 이메일 클라이언트를 감염시키도록 유도하는 데 성공했다. 나시는 "사용자의 민감한 데이터가 포함된 응답은 새 클라이언트(고객)로 전송된 이메일에 회신하여 저장될 때 새로운 호스트를 감염시킨다"고 설명했다. 그는 "자체 복제 프롬프트를 이미지에 인코딩하면 스팸, 악용 자료 또는 광고 이미지를 최초 이메일 후 새로운 클라이언트에게 추가로 전달할 수 있다"고 덧붙였다. 연구 결과는 오픈AI와 구글에 전달됐다. 오픈AI 대변인은 와이어드와의 인터뷰에서 "시스템의 탄력성 향상을 위해 노력하고 있다"고 밝혔다. 나시와 동료들은 논문에서 "AI 웜이 향후 몇 년 안에 확산될 수 있으며 심각하고 예상치 못한 결과를 초래할 것"이라고 주장했다. 이는 기업들이 사이버 보안 위험을 사전에 예방하지 않은 채 생성 AI 비서를 깊숙히 통합하려는 움직임에 대한 경고다. AI 웜 피해 규모 예측 AI 웜은 아직 등장하지 않아 정확한 피해 규모를 예측하기는 어렵다. 그러나 기존 웜과 달리 다양한 공격 방식을 사용할 수 있어 피해 범위가 더욱 크고, 예측하기가 더 힘들 수 있다. 또한 AI 웜 공격을 감지하고 차단하는 보안 시스템은 빠르게 발전하고 있지만 아직 완벽하지 않아 공격을 막는 데 어려움을 겪을 수 있다. 연구팀의 지적처럼 AI 웜은 스스로 복제 및 배포 기능을 갖추고 있어 빠르게 확산될 수 있다. 이는 기업, 정부기관, 개인 사용자 등 다양한 시스템에 심각한 피해를 입힐 수 있다. 또한 AI 웜은 네트워크를 공격해 서비스 중단을 유발할 가능성도 존재한다. 유명한 인공지능 선구자인 무스타파 술레이만(구글 소유 딥마인드 연구소 공동 창립자, 현 마이크로소프트 소비자 AI 사업 부문 총괄 책임자)은 과거 AI 기술이 "상상할 수 없는 규모의 재앙"이 될 수 있다고 경고했다. 20일 뉴욕포스트에 따르면 술레이만은 2023년에 출간된 저서 『다가오는 물결(The Coming Wave)』에서 AI, 합성생물학 및 기타 급성장하는 기술을 통해 "다양한 악의적 행위자들이 상상할 수 없는 규모의 혼란과 불안정, 심지어 재앙을 일으킬 수 있다"고 주장했다. 잘못된 정보의 확산을 촉진하고 경제적 격변을 일으킬 수 있는 AI의 잠재력도 그가 우려하는 부분 중 하나다. 술래이만은 지난해 FT와의 인터뷰에서 AI가 사무직 일자리를 뒤흔들고 고용 시장에서 "심각한 수의 패자를 양산할 수 있다"고 경고했다. 동시에 지난해 가을 월스트리트 저널의 책 리뷰에 따르면, 술레이만은 AI를 제대로 활용하면 "인류의 새로운 여명을 열고 사업을 운영하고 질병을 치료하며 전쟁을 치르는 데 도움이 될 수 있다"며 AI의 잠재적 이점에 대해 낙관적인 전망을 내놓기도 했다. 코넬 테크 연구팀이 제안한 AI 웜 시나리오는 초기 단계에 있는 AI 사업 분야에 양날의 검으로 작용할 수 있음을 시사하고 있다.
-
- 포커스온
-
[퓨처 Eyes(28)] 챗GPT와 제미나이도 무너뜨리는 AI 웜 모리스 II 등장
-
-
EU, 알리익스프레스 가짜 의약품·음란물 유포 혐의 공식 조사
- 유럽연합(EU) 집행위는 14일(현지시간) 중국 알리바바그룹이 운영하는 전자상거래(EC) 사이트 ‘알리익스프레스’에 대해 가짜의약품과 음란물 유통혐의로 정식조사에 착수했다고 발표했다. 이날 로이터통신 등 외신들에 따르면 EU 집행위원회는 성명을 통해 "DSA(디지털서비스법)에 따라 알리익스프레스에 대한 공식 조사를 시작했다"고 밝혔다. 이는 소셜미디어(SNS) 틱톡, 엑스(옛 트위터)에 이은 DSA 관련 EU 집행위의 세 번째 공식 조사다. 성명은 "이번 조사는 위험 관리 및 완화, 콘텐츠 중재 및 내부 불만 처리 메커니즘, 광고 및 추천 시스템의 투명성, 거래자 추적성 및 연구원의 데이터 접근과 관련된 영역에서 알리익스프레스의 DSA 위반 여부에 초점을 맞추고 있다"고 밝혔다. 집행위는 알리익스프레스가 DSA의 10개 조항(16조, 20조, 26조, 27조, 30조, 34조, 35조, 38조, 39조, 40조)을 위반한 것으로 보고 있다. 집행위는 구체적으로 알리익스프레스가 가짜 의약품, 식품 및 식이보충제 등 소비자의 건강에 위험을 초래하는 제품 노출과 미성년자의 음란물 접근을 제대로 막지 않고 있다고 지적했다. 집행위 관계자는 이날 언론 브리핑에서 "알리익스프레스에 대한 우려는 규정을 준수하지 않는 의약품, 식품, 음란물 유통 및 장난감 판매와 관련된 아동 안전 위험과 같은 영역에 포함된다"고 설명했다. 아울러 알리익스프레스의 인플루언서 제휴 프로그램에 대한 투명성 및 안전 문제도 조사할 것이라고 했다. 알리익스프레스는 유명 인플루언서와 함께 공동구매 등을 진행하고, 판매 수익금에 따라 관련 수수료를 인플루언서에게 지급하는 프로그램을 진행하고 있다. 집행위는 이런 활동 중 일부가 규정을 준수하지 않거나 잠재적으로 위험한 제품의 판매로 이어지는 것으로 의심한다. DSA는 EU가 SNS 플랫폼에서 허위 정보나 불법·유해 콘텐츠의 유통을 막고자 지난해 8월부터 시행 중인 법이다. DSA에 따라 온라인 플랫폼은 불법 상품, 서비스 또는 콘텐츠가 포함된 게시물을 방지하고 제거하고, 사용자에게 이런 유형의 콘텐츠를 신고할 수 있는 수단을 제공해야 한다. 만약 기업이 콘텐츠 삭제 등 즉각적인 시정 조처를 하지 않는 등 관련 규정을 어기면 연간 글로벌 수익의 최대 6%에 대항하는 과징금을 부과할 수 있다. 특히 월간 사용자가 4500만명 이상인 플랫폼은 온라인 대형 플랫폼으로 규정하고, 이들에 대한 당국과 주요 데이터 공유, 사용자에게 추천 시스템 및 프로파일링 금지 등 추가 규정을 마련했다. 알리익스프레스, 아마존, 애플, 구글, 엑스, 틱톡 등 19개 플랫폼이 대형 플랫폼으로 분류됐다. 한편 EU 집행위는 마이크로소프트(MS)의 전문가용 네트워킹 플랫폼인 '링크트인'에 이용자의 개인정보가 표적 광고에 어떻게 활용되고 있는지에 대한 정보를 공식 요청했다. 온라인 플랫폼의 개인정보 악용은 DSA 위반 사항에 해당한다.
-
- 포커스온
-
EU, 알리익스프레스 가짜 의약품·음란물 유포 혐의 공식 조사
-
-
EU 유럽의회, 전세계 첫 AI규제법 가결⋯내년초 발효, 2년 뒤 적용 예상
- 유럽연합(EU) 유럽의회는 13일(현지시간) 전세계에서 처음으로 인공지능(AI)의 포괄적인 규제법안을 가결했다. 이날 로이터통신 등 외신들에 따르면 유럽의회는 AI법안에 523명의 의원들이 찬성해 찬성다수로 승인했다. 의원중 46명은 반대, 49명은 기권했다. 유럽의회가 AI규제법을 가결한 것은 AI에 대한 규제가 처음 제안된 지 5년 만이다. 유럽의회가 이날 AI법을 가결함에 따라 EU 27개국 회원국들이 오는 5월엔 정식으로 승인하면 내년 초에 발효되고 오는 2026년부터 적용될 것으로 예상된다. 일부 조항은 이보다 빨리 시행된다. EU 집행위의 역내시장 담당인 티에리 브르통 집행위원은 성명에서 "유럽은 이제 신뢰할 수 있는 AI에 대해 세계적인 모범이 됐다"고 말했다. 미국에서는 이에 해당하는 법규제가 없으며 EU의 법안에 포함된 일련의 규제가 미국과 유럽 각국에 있어서 AI관리를 방향지을 가능성이 있다. 이 AI법안에 대해 기업들은 너무 지나치다라는 우려를 표명한 반면 감독당국은 충분하게 다루지 못하고 있다는 입장을 나타냈다. AI 규제법은 급속하게 진화하고 있는 기술이 초래하는 편견과 프라이버시, 기타 리스크에 대한 우려에 대처하는 것을 목적으로 하고 있다. 구체적으로는 직장과 학교에서의 감정인식기술에 대한 AI 이용을 금지하고 구인신청자의 선별이라는 중요한 사안에서의 사용도 제한하고 잇다. 또한 지난해 챗GPT의 인기로 세계적인 주목을 모았던 생성AI 방식에도 처음으로 제한이 가해지게 된다. 규제대상에는 미국 마이크로소프트(MS)가 출자한 미국 오픈AI가 개발한 생성AI 등이 포함된다. 이들 생성AI는 대량의 데이터로 훈련받아 새로운 콘텐츠를 생성한다든지 업무를 실행하든지 한다. 대상이 되는 영향이 큰 범용AI모델과 리스크가 높은 AI시스템은 특정의 투명성을 충족할 의무와 EU의 저작권법의 준수가 필수적이다. 유럽의 신생 기업부터 오픈AI 및 구글에 이르기까지 범용 AI 모델 개발자는 시스템을 교육에 사용되는 인터넷상의 텍스트, 그림, 비디오 및 기타 데이터에 대한 자세한 요약을 제공하는 등 EU 저작권법을 준수해야 한다. AI가 만든 실존 인물, 장소, 행사 등에 대한 딥페이크 사진, 동영상, 오디오는 인위적으로 조작된 것으로 분류돼야 한다. EU는 강력한 AI 시스템이 "심각한 사고를 일으키거나 광범위한 사이버 공격에 악용될 수 있다"고 우려하고 있으며, 또 생성 AI가 많은 애플리케이션에 "해로운 편견"을 퍼뜨려 많은 사람들에게 영향을 미칠 수 있다고 우려한다. 이러한 시스템을 제공하는 회사는 위험을 평가하고 완화해야 한다. 누군가의 죽음이나 건강, 재산에 심각한 해를 끼치는 오작동 같은 심각한 사건은 보고하고 사이버 보안 조치를 취해야 한다. 또 AI 모델이 얼마나 많은 에너지를 사용하는지도 공개해야 한다. 정부가 공공으로 실시간의 생체인증을 감시할 수 있는 것은 특정 범죄, 테러공격 등의 실질적인 위협 방지, 중대한 범죄의 용의자 수사에 제한된다.
-
- 포커스온
-
EU 유럽의회, 전세계 첫 AI규제법 가결⋯내년초 발효, 2년 뒤 적용 예상
-
-
AI 딥페이크 '주의보', 뉴스에 미치는 영향 분석
- 인공지능(AI) 기술은 아직 콘텐츠 제작이나 정보 검증 과정에서 충분히 신뢰할 수 있는 수준에 도달하지 못했다. 특히 딥러닝 AI 기술 사용으로 인해 딥페이크 기술의 발전 속도가 급증하고 있어 위험성이 더욱 커지고 있다. 딥페이크는 인물의 얼굴, 특정 부위가 담긴 깆노의 영상이나 이미지 파일에다가 CG처럼 합성하는 것을 말한다. 호주 과학 전문 매체 코스모스매거진(cosmosmagazine)은 25일(현지시간) 딥러닝 AI 기술 사용으로 인해 인공지능 딥페이크의 노출 빈도가 급증하고, 조작 가능한 범위와 용이성 측면에서 엄청난 발전을 이뤘다며 인공지능의 오용을 방지하고 정보의 무결성을 유지하기 위해서는 언론, 기술 개발자, 정책 입안자들의 협력이 필요하다고 보도했다. 로열 오스트레일리아 연구소(RiAus)의 윌 베리먼(Will Berryman) 총괄 이사는 "진짜 이미지와 가짜 이미지를 구별하기가 점점 힘들어지고 있으며, 아주 미세한 이미지 변형을 통해 정보 수용 방식을 왜곡하는 데 사용될 수 있다"며 우려했다. AI가 저널리즘에 미치는 영향 RiAus는 AI가 저널리즘과 진실성에 끼치는 영향에 대해 심도 깊은 고민을 하고 있다. 오스트레일리아 기계학습 연구소(AIML)의 소장, 사이먼 루시(Simon Lucey) 교수는 "악의적인 목적으로 대규모로 실행될 경우, 법 집행 기관에게 혼란을 야기하고, 사람들이 의견을 형성하고 행동하는 방식에 심각한 문제를 일으킬 것"이라며, "이는 허위 정보가 널리 퍼지는 또 다른 경로가 될 수 있다"고 경고했다. 루시 교수는 AIML과 같은 기관들이 이미지의 출처를 암호화하여 사람들이 추적하고 검증할 수 있게 하는 '워터마킹' 기술에 대해 연구 중이라고 밝혔다. 그러나 이러한 기술적 대책도 의도적으로 속이려는 시도에는 한계가 있다. 그는 "이 기술은 책임감 있는 행위를 하고자 하는 선의의 사람들에게 유용할 것"이라고 말하면서도, "안타깝게도 가짜 콘텐츠나 딥페이크 콘텐츠가 유포될 가능성을 항상 염두에 둬야 한다"고 덧붙였다. 베리먼 이사는 대중이 현실과 허구를 구별해야 하는 새로운 도전에 직면한 상황에서, 기자들이 검증된 정보의 관리자로서의 역할을 우선시함으로써 도움을 줄 수 있다고 강조했다. 베리먼은 "지난 30년 동안 큐레이션된 미디어가 감소하고 정보가 어디에나 존재하며 쉽게 접근 가능해졌지만, 사회적으로 중요한 큐레이션을 너무 성급하게 포기했다고 생각한다"고 말했다. 시드니 공과대학의 모니카 아타드(Monica Attard) 교수는 최근 호주 주요 뉴스룸의 편집 및 제작 스태프 20명을 대상으로 한 인터뷰 프로젝트를 통해 AI가 뉴스 산업에 미치는 영향을 조사했다. 아타드 교수는 뉴스룸이 기술의 빠른 발전에 적응하기 어려워하는 것을 발견했지만, 많은 편집장들이 기자들이 허위 정보의 유포를 막는 데 중요한 역할을 할 수 있다고 믿고 있다고 밝혔다. 아타드는 "편집장들은 뉴스 미디어 기관이 고품질 뉴스를 제공함으로써 지난 10~15년 동안 저널리즘에 침투한 신뢰성 저하를 반전시키거나 영향을 줄 수 있는 기회를 인식하고 있다"고 지적했다. 그는 AI에 대한 더 광범위한 논의를 하면서, 특히 젊은 기자들 사이에서 직업 상실에 대한 우려가 존재함에도 불구하고, 많은 편집장들이 인터뷰에서 AI가 날씨 보고나 헤드라인 작성 같은 보다 일상적인 작업을 담당함으로써 기자들이 인간의 감성이 더 중요한 콘텐츠 제작에 더 집중할 수 있기를 희망한다고 밝혔다. 그러나 현재 상황에서는 AI가 생성한 가장 기본적인 정보조차 신뢰하는 것이 어렵다는 점이 문제다. 아타드 교수는 "저널리즘의 검증 과정이 훨씬 더 복잡해진다. 이름 없는 다양한 출처로부터 나오는 정보 조각들을 어떻게 신뢰할 수 있을까?"라고 의문을 제기했다. 그는 이어 "편집자들이 전한 가장 현명한 조언은, 제작자 및 기술 라이선스 플랫폼과의 대화를 통해 구현될 수 있는 보호 장치가 마련되기 전까지, 그러한 보호 장치가 구축될 때까지 저널리즘 목적에 충분히 신뢰할 수 있는 기술이라고 볼 수 없다는 것이었다"고 말했다. 선거의 해, AI가짜 콘텐츠 방지 한 목소리 한편, 마이크로소프트, 메타, 오픈AI 등 세계 주요 기술 기업 20곳이 지난 2월 16일 뮌헨 안보회의에서 AI에 의한 가짜 정보 콘텐츠가 올해 세계 각지에서 실시되는 선거를 방해하지 못하도록 협력하기로 합의했다. 한국은 오는 4월 총선을 실시하는 등 2024년은 세계 각지에서 대규모 선거가 잇따르는 '선거의 해'다. 한국에서는 오는 4월 10일 제 22대 국화의원선거가 치러진다. 특히 개정 공직선거법 시행에 따라 딥페이크(특정 인물의 얼굴 등을 영상에 합성) 영상을 활용한 선거운동은 선거일 전 90일부터 선거일까지 전면 금지된다. 미국은 오는 11월에 대통령 선거를 앞두고 SNS(소셜네트워크서비스)에 AI가 생성한 가짜 이미지와 가짜 동영상 등이 유포되고 있어 유권자의 투표 판단에 악영향을 미칠 수 있다는 우려가 제기되고 있었다. 이미 지난 1월에는 미국 동부 뉴햄프셔주 프라이머리(예비경선)를 하루 앞두고 민주당 당원에게 투표 거부를 독려하는 바이든 대통령의 가짜 목소리를 담은 자동 전화가 유포되어 AI를 이용한 선거 정보 조작에 대한 우려가 증폭됐다. 세계 각국 정상들이 외교-안보 문제를 논의하는 뮌헨안보회의에서도 AI 기술이 선거에 미치는 영향은 주요 의제 중 하나였다. 이번 협약에 따라 기술(테크) 대기업들은 AI가 생성한 가짜 콘텐츠를 자동으로 탐지하고 제거하는 기술 개발, 이용자 대상 교육 강화 등에 힘쓸 예정이다. 아마존닷컴, X(구 '트위터'), 틱톡 등 다양한 플랫폼 기업도 이번 협력에 참여했다. 정부와 기업 외에 사용자들도 딥페이크와 같은 허위 정보에 대한 경계와 비판적 사고가 필요하다. 테크놀로지적 해결책, 미디어 리터러시 교육, 인공지능의 발전 및 윤리적 사용에 대한 지침을 아우르는 다면적 접근을 통해 허위 정보 문제에 대응해야 한다.
-
- 생활경제
-
AI 딥페이크 '주의보', 뉴스에 미치는 영향 분석
-
-
MS·메타·오픈AI 등 IT 대기업 20곳, AI 선거 방해 대책 협력…2024년 대규모 선거 대비
- 마이크로소프트, 메타, 오픈AI 등 세계 주요 기술 기업 20곳이 16일(현지시간) 뮌헨 안보회의에서 인공지능(AI)에 의한 가짜 정보 콘텐츠가 올해 세계 각지에서 실시되는 선거를 방해하지 못하도록 협력하기로 합의했다. 2024년은 세계 각지에서 대규모 선거가 잇따르는 '선거의 해'다. 특히 오는 11월에는 미국 대통령 선거를 앞두고 SNS(소셜네트워크서비스)에 AI가 생성한 가짜 이미지와 가짜 동영상 등이 유포되고 있어 유권자의 투표 판단에 악영향을 미칠 수 있다는 우려가 제기되고 있었다. 이미 미국 동부 뉴햄프셔주에서는 AI로 추정되는 바이든 대통령의 목소리를 닮은 자동 전화가 유포되어 문제가 되기도 했다. 세계 각국 정상들이 외교-안보 문제를 논의하는 뮌헨안보회의에서도 AI 기술이 선거에 미치는 영향은 주요 의제 중 하나였다. 이번 협약에 따라 기술(테크) 대기업들은 AI가 생성한 가짜 콘텐츠를 자동으로 탐지하고 제거하는 기술 개발, 이용자 대상 교육 강화 등에 힘쓸 예정이다. 아마존닷컴, X(구 '트위터'), 틱톡 등 다양한 플랫폼 기업도 이번 협력에 참여했다. 구글은 가짜 이미지 등의 유통을 막기 위해 AI로 생성되었음을 나타내는 정보를 이미지에 삽입하는 '전자 워터마크'라는 기술을 개발하고 있다. 뮌헨 회의에 참석한 메타 임원들은 유력한 기술을 각 사가 공유하는 것이 바람직하다는 인식을 보였다. 이번 합의는 세계 주요 기술 기업들이 선거 방해에 대한 공동 대응에 나섬으로써 AI 기술의 악용을 막고 자유롭고 공정한 선거를 위한 중요한 발걸음으로 평가된다. 하지만 기술적인 해결책과 더불어 시민들의 디지털 리터러시 교육 강화, 선거 관리 기관의 역할 강화 등 다각적인 노력이 필요하다는 지적도 나온다. 뮌헨 안보회의 참석자들은 AI 기술이 선거에 미치는 영향에 대해 심도 있게 논의했으며, 이번 협력이 선거의 공정성을 유지하는 데 중요한 역할을 할 것으로 기대하고 있다.
-
- IT/바이오
-
MS·메타·오픈AI 등 IT 대기업 20곳, AI 선거 방해 대책 협력…2024년 대규모 선거 대비
-
-
오픈AI, 미국 민주당 의원 모방 AI챗봇 개발 금지
- 오픈AI가 미국 대선을 앞두고 민주당 경선 후보를 모방한 챗봇 개발을 금지했다. 21일(현지시각) 워싱턴포스트(WP)와 로이터통신 등 외신들에 따르면 챗GPT 개발사 오픈AI는 최근 민주당 경선 후보인 딘 필립스 연방하원의원의 AI 챗봇인 '딘닷봇(Dean.Bot)'을 개발한 AI 스타트업 델파이의 계정을 중단했다. 오픈AI는 "정치 캠페인에 사용해서는 안 된다는 API(응용 프로그램 인터페이스) 사용 정책을 고의로 위반하거나 동의 없이 개인을 사칭한 개발자의 계정을 최근 삭제했다"고 밝혔다. 이는 오픈AI가 미 대선 과정에서 자사의 AI 기술이 오용되는 것을 막기 위해 취한 첫 번째 조치다. 필립스 하원의원을 후원하는 '위 디저브 베터(We Deserve Better)'라는 이름의 슈퍼팩(super PAC·특별정치활동위원회)은 델파이와 계약을 맺고 오픈AI의 챗GPT를 기반으로 필립스 챗봇을 개발해 운영하려고 했다. 이 단체는 딘닷봇을 이용해 웹사이트에서 유권자들과 실시간으로 대화할 수 있도록 할 예정이었다. 그러나 계정이 중단되면서 딘닷봇은 삭제됐다. '딘닷봇'은 필립스의 슈퍼팩을 만든 실리콘밸리 기업가 매트 크리실로프와 제드 서머스가 아이디어를 낸 것으로 전해졌다. 슈퍼팩에는 저명투자자 빌 애크먼이 100만달러를 기부했으며 X(구 트위트)에 "선거후보자에 대한 개인투자로서는 기부자중 사상최대"라고 투고했다. 오픈AI는 챗GPT와 함께 이미지 생성 AI인 '달리(Dall-E)' 등 자사의 AI가 정치 활동 등에 활용되는 것을 금지하고 있다. 최근에는 이들 AI 도구가 선거에 악용되는 것을 막기 위한 방안도 마련했다. 오픈AI는 챗GPT가 제공하는 뉴스·정보와 달리가 제공하는 이미지가 어디에서, 누구에 의해 만들어졌는지 출처를 제공하기로 했다. 특히 달리가 제공하는 이미지에 대한 검증을 강화해 어떤 이미지가 달리에 의해 생성됐는지 여부를 확인할 수 있는 '이미지 찾기 도구'도 출시할 예정이다.
-
- IT/바이오
-
오픈AI, 미국 민주당 의원 모방 AI챗봇 개발 금지
-
-
오픈AI, 글로벌 선거의 해 맞아 '가짜뉴스' 차단대책 내놓아
- 오픈AI가 대화형인공지능(AI) 챗GPT와 달리(Dall-E 3)가 선거에 악용되는 것을 막기 위한 대책을 내놨다. 오픈AI가 대화형인공지능(AI) 챗GPT와 달리(Dall-E 3)가 선거에 악용되는 것을 막기 위한 대책을 내놨다. 오는 11월 미국 대선 등 올해 전 세계 곳곳에서 중요한 선거가 예정된 가운데 AI 기술에 기반한 가짜뉴스가 확산될 수 있다는 우려가 커지면서 대응책 마련에 나선 것이다. 오픈AI는 15일(현지시간) 블로그를 통해 자사의 AI 도구가 제공하는 최신 선거 관련 정보에 출처를 표시할 예정이라고 밝혔다. 오픈AI는 동영상 생성AI ‘달리 3’에서 생성된 동영상에 대해 동영상을 누가 언제 작성했는지 등 콘텐츠출처에 관한 데이터를 보여주는 내역정보의 코드화를 개시한다. 이를 통해 유권자는 웹으로 보는 동영상이 AI생성인지 여부를 판단하기 쉽게 된다는 것이다. 이 프로세서에서는 C2PA가 확립한 암호표준이 사용된다. C2PA는 인텔 등 몇개사가 지난 2021년에 공동으로 설립한 생성AI의 페이크동영상에 대항하는 표준화단체다. 오픈 AI는 동영상에 대해 달리 생성인지 여부를 조사하기 위해 사용자가 이용할 수 있는 동영상 검색도구를 투입한다고 밝혔다. 우선 저널리스트와 플랫폼, 연구자들에 제공해 피드백을 방을 예정이다. 아울러 달리가 제공한 이미지에는 이를 확인하는 워터마크가 표시된다. 지금까지 특정의 동영상과 문장이 AI생성여부를 판단하는 많은 검색도구에 정밀도에서 문제가 있었다. 하지만 밀러 무디 최고기술책임자(CTO)는 지난해 10월 자사의 동영상 검색도구는 사내시험에서 99%의 정밀도를 보였다고 말했다. 선거를 앞두고 AI 기술을 보유한 기업들은 자사의 기술이 선거에 악용되는 것을 막기 위해 서둘러 대책을 내놓고 있다. 구글은 자사 AI 챗봇 '바드'와 AI 검색 기능이 답변할 수 있는 선거 관련 질문을 제한하기로 했다. 또 AI로 생성된 콘텐츠를 사람들이 바로 식별할 수 있도록 선거 광고가 AI를 사용한 경우 광고주가 이 사실을 눈에 띄게 표시하도록 했다. 오픈AI는 "올해 전 세계 곳곳의 선거를 앞두고 우리 도구의 남용 가능성을 예측하고 방지하기 위해 계속해서 파트너와 협력할 것"이라고 밝혔다.
-
- IT/바이오
-
오픈AI, 글로벌 선거의 해 맞아 '가짜뉴스' 차단대책 내놓아
-
-
비트코인 창시자 사토시 나카모토 지갑에 120만 달러 입금…암호화폐 시장 촉각
- 가상화폐(암호화폐) 비트코인을 창시하고 홀연히 사라진 '사토시 나카모토(Satoshi Nakamoto)'의 비트코인 지갑 주소로 최근 120만 달러 상당의 비트코인이 입금돼 암호화폐 커뮤니티의 주목을 받고 있다. 암호화폐 전문매체 더 블록은 지난 6일(이하 현지시간) 익명의 암호화폐 사용자가 바이낸스 거래소에서 비트코인 네트워크의 제네시스(Genesis) 지갑으로 120만 달러(약 15억 7000만원) 상당의 비트코인(BTC)을 보낸 것으로 보인다고 보도했다. 사토시 나카모토의 비트코인 제네시스 지갑에는 이제 약 110비트코인의 잔액이 있는 것으로 알려졌다. 이 소식은 포브스와 코인데스크 등 다수 외신이 연이어 보도하면서 각종 추측을 촉발하고 있다. 비트코인 1개 가격은 9일(한국 시간) 오전 9시 현재 전일 대비 7% 이상 급등해 약 4만7000달러에 거래되고 있다. 사토시 나카모토의 지갑에 있는 110비트코인을 미국 달러로 환산하면 약 517만달러 상당(약 68억원)의 가치가 있다. 더 블록에 따르면 알 수 없는 비트코인 사용자가 지난 1월 5일 오전 1시 52분(ET)에 사토시 나카모토의 지갑으로 26.9비트코인(약 117만 달러)을 전송했다. 거래 수수료는 평균보다 높은 100달러였다. 이 익명의 사용자는 원래 3개의 지갑에서 12개의 다른 지갑으로 자금이 이동하는 복잡한 거래를 통해 사토시 나카모토의 지갑으로 자금을 조달했다. 블록체인 분석 플랫폼인 아캄 인텔리전스(Arkham Intelligence)의 데이터에 따르면 대부분의 자금은 바이낸스(Binance) 소유라고 표시된 지갑에서 나왔다. 이 자금은 보낸 사람이 다시 돌려받을 가능성이 거의 없는 것으로 전해졌다. 이와 관련해 암호화폐 거래소 코인베이스(Coinbase)의 이사인 코너 그로건(Conor Grogan) 이사는 소셜 미디어 X(구 '트위터')에서 " 사토시가 일어나 바이낸스에서 비트코인 27개를 사서 지갑에 입금했거나 누군가 방금 백만 달러를 태웠거나 둘 중 하나"라고 말했다. '제네시스(Genesis)' 지갑은 비트코인 네트워크에서 생성된 최초의 지갑이다. 이는 비트코인 네트워크를 만든 나카모토 사토시라는 가명의 인물 혹은 단체에 의해 만들어졌다. 또한 나카모토는 비트코인 네트워크 초기에 많은 수의 다른 블록을 채굴했을 가능성이 높지만 정확히 얼마나 많은 블록인지는 확실하지 않다. 이론적으로 나카모토는 제네시스 지갑에 접근(액세스)하기 위해 여전히 개인 키를 보유하고 자금을 이동하거나 반환할 수 있지만, 이러한 일이 일어날 가능성이 거의 없다는 것이 일반적인 의견이다. 2010년 12월 나카모토가 사라진 이후 제네시스 블록에 보관된 자금을 포함해 나카모토 관련 지갑의 자금이 이동하지 않았기 때문이다. 비트코인은 2008년 10월 사토시 나카모토라는 가명을 쓰는 프로그래머가 개발하여, 2009년 1월 프로그램 소스를 배포했다. 비트코인은 통화를 발행하고 관리하는 중앙 장치(일종의 중앙은행)가 존재하지 않는 구조를 가지고 있다. 이에 비트코인의 거래는 P2P 기반 분산 데이터베이스에 의해 이루어지며, 공개 키 암호 방식 기반으로 거래를 수행한다. 나카모토가 사라졌을 때 제네시스 지갑에는 생성 당시 처음으로 채굴된 50비트코인만 들어 있었다. 시간이 지남에 따라 더 많은 자금이 제네시스 지갑으로 보내졌고 잔액은 2023년 말에 72비트코인으로 늘어났다. 최근 거래를 통해 현재 잔액은 약 110비트코인으로 추정되고 있다. 블록체인닷컴(Blockchain.com) 데이터에 따르면 최근 막대한 자금을 받은 주소는 2009년 1월 3일 비트코인 네트워크의 첫 번째 '제네시스' 블록을 채굴한 나카모토의 지갑으로, 현재 잔액으로 추정되는 110 BTC 중에는 여전히 첫 번째 50 BTC 보상이 포함되어 있다. 특히 이번 거래는 비트코인 네트워크 15주년 창립 기념일인 1월 3일이 이후 이틀 만에 이뤄졌다. 게다가 미국 증권거래위원회(SEC)는 오는 10일까지 비트코인 현물 ETF 승인 혹은 거절 결정을 앞두고 있다. 그로 인해 지난 연말 비트코인 가격은 4만5000달러까지 급등했다가 소폭 하락한 뒤 8일 다시 4만7000달러를 돌파하는 등 급등락을 거듭하고 있다. 이런 미묘한 시기에 사토시 나카모토의 제네시스 지갑에 거래가 일어나면서 암호화폐 업계에서는 갑론을박이 이어지고 있다. 코인데스크는 8일 일부에서는 현물 비트코인 ETF 마케팅 묘기나 세금 규정으로 인해 나카모토의 신원을 공개하라는 압력이 일고 있다고 전했다. 코너 그로건은 또한 비트코인 현물 ETF 승인에 대한 기대감이 고조되면서 미국 현물 비트코인 상장지수펀드(ETF) 발행자와 관련된 마케팅 스턴트일 수도 있다고 추측했다. 반면, 법률 회사인 호건 앤 호건(Hogan & Hogan)의 파트너인 제레미 호건(Jeremy Hogan)은 이번 거래가 새로운 미국 조세 규정을 활용하여 비트코인 창시자의 신원을 밝히려는 시도일 수 있다는 이론을 세웠다. 미국 납세자는 올해부터 1만달러가 넘는 모든 암호화폐 거래를 국세청(IRS)에 보고해야 한다. 호건은 X 포스트에서 "말이 되는 유일한 것은 보낸 사람이 사토시를 쫓아낸다는 것"이라면서 "사토시는 독설을 하지 않으면 법을 어겨야 한다"라고 말했다. 한편, 익명의 사토시 나카모토의 움직임은 사소한 것까지 암호화폐 커뮤니티의 주목을 받고 있다. 앞서 지난해 10월 초 사토시 나카모토가 5년 만에 소셜 미디어(SNS) 계정에 다시 등장하자 음모론부터 호기심까지 다양한 반응을 보였다. 당시 많은 사람들은 해당 계정이 사기꾼에 의해 악용될 수 있으므로 계정에서 제공할 수 있는 링크를 클릭하지 말라고 경고했다.
-
- IT/바이오
-
비트코인 창시자 사토시 나카모토 지갑에 120만 달러 입금…암호화폐 시장 촉각
-
-
"가상자산 거래소 시장 감시 기능 분리" 논의
- 가상자산 거래소의 시장 감시 기능을 별도로 분리하고 통합적인 시장 감시 시스템을 구축해야 한다는 의견이 제시됐다. 8일 오후 서울 영등포구 국회의원회관에서 민병덕 더불어민주당 의원 주최로 열린 '가상자산이용자보호법 시행과 과제' 정책토론회에서 최진홍 법무법인YK 변호사가 이와 같이 발표했다. 이날 토론회에는 안병남 금융감독원 디지털자산연구팀장, 김유성 연세대학교 법학전문대학원 교수, 이정두 한국금융연구원 전문위원, 이정민 한국금융소비자보호재단 연구위원, 이윤아 국회입법조사처 박사 등도 참석했다. 최 변호사는 "현재 가상자산거래소에 부여된 시장 감시 의무는 불공정거래 대응 능력 부족과 사업자 부담 가중 등의 문제점을 안고 있다"며, "통합적 시장감시 시스템을 통해 감시 기능을 분리하는 것이 필요하다"고 주장했다. 특히 가상자산거래소는 자신의 거래소 내 행위에 대해서만 시장 감시를 할 수 있어, 거래소 간 연계 불공정거래 행위를 적출해내는 것은 사실상 불가능하다는 한계가 있다. 그는 "통합적 시장 감시 시스템 구축으로 이해 상충 문제를 예방하고 감시 공백을 줄일 수 있다"며, "객관적인 불공정거래 적출과 금융당국과의 협력 효율성 증대에도 도움이 될 것"이라고 설명했다. 이어 "객관적이고 균일한 불공정거래를 적출할 수 있고 금융당국과의 공조 효율성이 높아질 뿐 아니라, 국내에서 이뤄지는 모든 가상자산에 대한 시장 감시가 가능해져 감시 공백도 감소한다"고 설명했다. 또한, 최 변호사는 코인리딩방, 비수탁형 지갑 사업자에 대한 등록제 등 진입규제 신설, 시장조성제도의 악용 방지 체계 구축, 거래지원 가상자산에 대한 정보 공개 의무 부과 등의 제안도 함께 발표했다. 한편, 관세청은 같은 날 두나무, 빗썸코리아, 코인원, 코빗, 스트리미 등의 가상자산사업자, 디지털자산거래소 공동협의체(DAXA)와 함께 '가상자산 불법 외환 거래 방지 협의회'를 발족했다고 밝혔다. 협의회는 가상자산과 연계된 불법 외환거래에 대응하는 공조 방안을 논의했다. 가상자산의 제도권 편입에 앞서 협력 방안도 논의 대상에 올랐다. 관세청은 가상자산 관련 외환 범죄 대응 현황과 수사 사례도 공유했다. 지난해 관세청에 적발된 가상자산 관련 불법 외환거래는 총 21건으로 규모는 1조4568억원이었다. 공유된 가상자산 악용 사례는 해외 현금자동입출금기(ATM)에서 외화를 인출해 가상자산을 구매하면서 한국은행에 신고하지 않은 사례, 국가 간 가상자산 시세차익을 얻을 목적으로 가상자산 구매대금을 수입대금으로 가장해 송금한 사례, 수출입 대금을 가상자산으로 영수·지급하면서 한국은행에 신고하지 않아 외국환거래법을 위반한 사례 등이다. 가상자산 업체들은 불법 거래 차단에 적극 동참하는 한편, 수출입 관련 가상자산 악용 사례를 계속 공유해달라고 요청했다.
-
- IT/바이오
-
"가상자산 거래소 시장 감시 기능 분리" 논의
-
-
EU, 세계 첫 '포괄적 AI규제법' 잠정 합의
- 유럽연합(EU)은 8일(현지시간) 인공지능(AI) 개발과 운영에 대한 포괄적 규정을 담은 ‘AI 규제법’에 잠정 합의했다. 정부 생체인식부터 챗GPT 등 민간 시스템까지 모든 AI를 포괄하는 세계 첫 AI 규제안이다. 연합뉴스가 전한 로이터통신 등 외신들에 따르면 유럽연합 집행위원회(EC)와 유럽의회, 27개 EU 회원국 대표는 전날 24시간 협의에 이은 이날 15시간 마라톤 논의 끝에 AI 규제법에 잠정 합의했다. EU는 수일중에 구체적인 내용을 담은 규제안을 내놓을 예정이며 최종적인 법안은 수정될 가능성도 있다. 시민의 권리와 민주주의에 잠재적 위협이 될 수 있는 AI 활용 금지를 골자로 하는 이번 법안에는 AI 위험성을 분류하는 한편 기술 개발 과정의 투명성 강화와 규정 위반 기업에 대한 벌금 부과 등의 내용이 담겼다. 우선 정치·종교·인종 등 특성으로 사람들을 분류하는 데이터베이스 구축을 위한 AI 생체 정보 수집을 금지한다. 오픈AI의 ‘챗GPT’와 구글 ‘바드’ 등 대규모 언어 모델은 규제를 원칙으로 하지만 국가 안보 등에 활용하는 AI는 예외 조항을 두기로 했다. 또 EU에 진출한 기업은 자율주행이나 의료 장비 등 고위험 기술을 개발하는 과정의 데이터를 공개하고 테스트를 거쳐야 한다. 특히 법안은 소비자가 AI 기술과 관련한 문제를 제기해 의미 있는 설명을 들을 권리를 규정했다. 또 규제를 위반한 기업에 매출액의 1.5%에서 3500만 유로 또는 전 세계 매출액 7%에 해당하는 규모의 벌금을 부과한다는 제재 방식도 포함하고 있다. 티에리 브루톤 EU 집행위원(역내시장 담당)은 이날 자신의 X(옛 트위터) 계정에 “EU가 AI 사용에 대해 명확한 규칙을 정하는 최초의 대륙이 될 것”이라며 “역사적인 순간”이라고 글을 올렸다. 이어 그는 “AI 규제법은 단순한 규정집 이상의 의미로, EU의 스타트업과 연구자들이 글로벌 AI 경쟁을 주도할 수 있는 발판이 될 것”이라고 전했다. 유럽은 AI 악용을 막기 위한 규제 마련에 가장 발 빠르게 움직이고 있다. EU의 행정부 역할을 하는 EC가 2021년 4월 기업의 자율적 준수를 요구하는 세계 첫 AI 규제안의 초안을 발표했다. 이후 진화한 기술을 포괄하기 위해 챗GPT 등까지 포함한 수정안을 지난 6월 마련했고 유럽의회는 이를 세계 최초로 통과시킨 바 있다. EU의 AI 규제법 세부사항은 앞으로 추가 논의를 통해 최종 결정될 예정이어서 법안의 형태와 내용은 바뀔 가능성도 있다. 이후 유럽의회와 각국의 승인 절차를 밟아야 해 법안은 이르면 오는 2026년쯤 전면 적용될 것으로 보인다. 향후 AI 활용을 엄격하게 제안하기 위해 마련된 이번 법안은 논의 과정에서 얼굴 인증을 포함한 AI 생체 인증 기술에 대한 의견이 분분했던 것으로 전해진다. 유럽의회는 무분별한 감시를 우려해 전면 사용을 금지를 요구했으나 프랑스가 내년 하계 패럴림픽에 대한 테러 대책 등으로 필요성을 주장하며 일부 규정 완화 필요성을 늘고 나온 것이다. 또 법안이 최근 기술 변화를 충분히 반영하지 못해 3년 전 초안과 차이가 없다는 지적도 있어 합의가 쉽지 않았다.
-
- IT/바이오
-
EU, 세계 첫 '포괄적 AI규제법' 잠정 합의
-
-
[퓨처 Eyes(13)] 일론 머스크의 뇌 임플란트, 혁신일까?…안전성과 윤리성 논란
- 일론 머스크 테슬라 최고경영자(CEO)가 운영하는 뇌신경과학 스타트업 뉴럴링크(Neuralink)의 뇌 임플란트와 관련해 안전성과 윤리성 문제가 또다시 불거졌다. 뉴럴링크는 두개골에 작은 구멍을 뚫고 뇌에 가는 실에 연결된 전극을 삽입하는 방식으로 소형 칩을 이식하는 기술을 개발하고 있다. 2016년에 설립된 이 회사는 뇌 임플란트 제조를 전문으로 하며, 환자의 뇌에 칩을 이식해 뇌파를 읽고 분석하여 다양한 기기를 제어할 수 있는 시스템을 구축하는 것을 목표로 하고 있다. 현재 뉴럴링크는 첫 번째 임상 시험 단계에서 사지마비 환자들이 생각만으로 컴퓨터를 조작할 수 있도록 하는 기술에 중점을 두고 있다. 이 기술은 환자의 운동 피질에서 발생하는 신호를 측정해 컴퓨터로 전송함으로써, 환자가 마우스나 키보드를 사용하는 대신 단순히 생각하는 것으로도 컴퓨터를 조작할 수 있게 한다. 프랑스 매체 프레스사이트론((Press-citron)은 뉴럴링크에 대해 "뇌의 중심부에 임플란트를 심어 인위적으로 증강된 인간을 창조하는 것이 트랜스휴머니즘 운동의 궁극적인 목표 중 하나"라고 소개하며, 이 운동이 철학적·윤리적 논쟁을 불러일으키는 논란의 여지가 있다고 제기했다. 이 매체는 뉴럴링크의 초기 목표가 인간의 인지 기능을 개선하는 것이었으나, 이미 이 기술이 건강에 부정적인 영향을 미칠 수 있다는 점을 지적했다. 일론 머스크는 트랜스휴머니즘 사상과 관련이 있다고 종종 주장되지만, 자신을 트랜스휴머니스트라고 명시적으로 밝힌 적은 없다. 특히 뉴럴링크 설립 이후 머스크는 트랜스휴머니즘을 지지하는 발언을 자주 하며, 트랜스휴머니즘의 목표에 부합하는 기술을 개발하고 있다. 트랜스휴머니즘은 인간의 본질적 한계를 과학과 기술을 통해 극복하고자 하는 사상 혹은 운동이다. 이 이념은 인간의 수명 연장, 지능 향상, 건강 개선과 같은 목표를 추구하며, 이를 위해 유전 공학, 나노기술, 뇌-컴퓨터 인터페이스 등과 같은 첨단 기술을 활용한다. 뇌 임플란트에 대한 우려 지난해 뇌 임플란트 실험을 위해 동물을 학대했다는 비난을 받았던 뉴럴링크는 지난 9월 미국 식품의약국(FDA)으로부터 인간을 대상으로 한 임상 시험을 시작할 수 있도록 승인을 받았다. 이에 따라 이 스타트업은 뇌 영역에 매우 가늘고 유연한 실(N1)을 삽입하는 뇌 임플란트 시술에 참가할 최초의 지원자를 모집하는 캠페인을 진행 중이다. 이번 임상 시험 대상은 경추 척수 부상이나 근위축성측삭경화증(ALS·루게릭병) 등으로 인한 사지마비 환자라고 회사 측은 밝혔다. 아울러 완전히 이식 가능한 무선 뇌-컴퓨터 인터스페이스(BCI)의 초기 목표는 사람들에게 자신의 생각만으로 컴퓨터 커서나 키보드를 제어할 수 있는 능력을 부여하는 것이라고 설명했다. 뉴럴링크는 2018년부터 뇌 임플란트 실험을 위해 동물을 이용해 왔다. 연합뉴스가 인용한 로이터통신이 지난해 12월 뉴럴링크 전·현직 직원 20여명의 인터뷰 내용과 내부 문서를 인용해 뉴럴링크의 실험으로 죽은 양과 돼지, 원숭이 등 동물이 총 1500마리로 추정된다고 보도했다. 보도에 따르면, 뉴럴링크의 실험 과정에서 동물들이 극도의 고통을 겪었고, 그 결과 15마리의 원숭이가 폐사한 것으로 알려졌다. 이에 따라 뉴럴링크는 동물복지법 위반 혐의로 미국 농무부로부터 조사를 받았다. 뉴럴링크의 동물 학대 논란은 뇌-컴퓨터 인터페이스 기술의 윤리적 논쟁을 불러일으켰다. 일부 전문가들은 뇌-컴퓨터 인터페이스 기술이 인간의 정신적 능력을 향상시키고 장애를 극복하는 데 도움이 될 수 있지만, 동물 실험의 윤리적 문제에 대한 심각한 고려가 필요하다고 지적했다. 또 의사들의 단체인 '책임 있는 의학을 위한 의사위원회'도 지난 9월 뉴럴링크 실험 대상 원숭이들의 건강 이상과 안락사 문제를 고발하며 SEC에 조사를 촉구하는 서한을 보냈다. 하지만 뇌-컴퓨터 인터페이스(BCI)로 알려진 이러한 유형의 임플란트를 사용하는 회사는 뉴럴링크만이 아니다. 건강 생명공학 분야의 다른 기업들도 이미 파킨슨병과 같은 질환을 퇴치하기 위해 이러한 유형의 장치를 사용하고 있다. 미국 매체 인사이더(Insider)는 이미 이러한 유형의 임플란트로 인한 우려스러운 주변 영향에 대해 보도한 바 있다. 펜실베니아 대학교의 철학 교수인 안나 웩슬러는 이러한 임플란트를 받은 파킨슨병 환자들과 접촉해 왔다. 그녀는 그들과 이야기를 나눌 수 있었고 "많은 사람들이 질병으로 인해 자신을 잃어버린 느낌을 받았다"는 관찰 결과를 공유했다. 뇌 임플란트로 인한 개인 정체성의 변화는 단순한 허구가 아니라는 주장이다. 태즈매니아 대학교의 신경윤리 전문가이자 철학 강사인 프레데릭 길버트는 한 걸음 더 나아갔다. 그는 특정 환자에 대한 BCI의 부작용을 보고하는 연구를 발표했다. 길버트 박사는 "인격, 정체성, 주체성, 진정성, 자율성, 자아에 대한 개념"과 관련된 심각한 장애라며 이는 단순한 두통이나 손에 바늘이 꽂힌 것과는 거리가 멀기 때문에 전문가들의 이러한 피드백은 주의를 기울여야 한다고 촉구했다. 정체성과 행동에 미치는 영향 프레데릭 길버트는 이러한 임플란트가 환자에게 다소 심각한 정신적 부조화를 일으킬 수 있다고 지적했다. 이러한 부조화는 일종의 비인격화 또는 비현실화로 비유될 수 있는 현상이다. 그는 "이 사람들은 자신이 자신이라는 것을 알고 있지만 임플란트 전과는 완전히 다른 존재가 되었다"고 설명했다. 그는 또한 자살 시도와 같은 심각한 사례도 다루었다고 언급했다. 인사이더는 50대 여성 환자의 사례를 전했다. 이 여성은 뉴럴링크 임플란트를 이식한 후 자신의 체력이 실제 능력에 비해 불균형하다고 느꼈다. 어느 날, 이 여성은 너무 무거운 짐을 들어 올리려다 실패했다. 다행히 이 여성은 다치지는 않았지만, 강한 실패감에 직면해야 했다. 뉴럴링크의 목표 중 하나는 BCI 임플란트를 통해 마비된 환자의 뇌를 재활성화하여 제2의 삶을 살 수 있도록 하는 것이다. 이 프로젝트는 많은 전문가들이 우려와 기대를 동시에 품고 있는 이니셔티브다. 현재로서는 이러한 임플란트의 위험성을 완전히 배제할 수 없으며, 현재의 지식으로는 너무 앞서가는 기술일 수도 있다는 의견이 있다. 한편, 뉴럴링크 임플란트는 장애를 극복하고 인간의 잠재력을 향상시킬 수 있는 잠재력이 있지만, 그만큼 위험성도 내포하고 있다. 따라서 임상 시험을 통해 임플란트의 안전성과 효과를 철저히 검증하고, 윤리적·사회적 논의도 충분히 이루어져야 할 것이다.
-
- 포커스온
-
[퓨처 Eyes(13)] 일론 머스크의 뇌 임플란트, 혁신일까?…안전성과 윤리성 논란
-
-
'비트코인 창시자' 사토시 나카모토, 소셜 미디어 계정 5년 만에 재등장
- 익명의 비트코인 창시자 '사토시 나카모토(Satoshi Nakamoto)'가 5년 만에 소셜 미디어(SNS) 계정에 다시 등장해 암호화폐 커뮤니티의 이목을 끌고 있다. 이전에 트위터로 알려진 플랫폼인 X에서 2018년 10월 31일 이후 약 5년 동안 침묵했던 '@satoshi' 계정이 최근 부활해 많은 추측이 제기됐다. '사토시 나카모토'는 익명의 사람(개인) 또는 비트코인을 개발한 단체가 사용하는 가명이기 때문에 5년 만의 SNS 재등장은 암호화폐 커뮤니티 내에서 음모론이 제기되는 등 갑론을박이 이어졌다. 문제의 트윗은 원래 비트코인 백서에 명시적으로 포함되지 않은 측면에 대한 탐구를 제안하고 있으며 150만 회 이상의 조회수를 기록하며 상당한 관심을 받았다. 암호화폐 전문매체 유투데이는 "그러나 플랫폼 X의 새로운 소유자인 일론 머스크가 도입한 기능인 유료 구독을 통해 누구든지 인증된 배지를 얻을 수 있도록 허용하는 X의 정책을 고려할 때 이 계정이 실제로 비트코인의 창조자와 연관되어 있을 가능성은 극히 낮다"고 전했다. 최초의 암호화폐 비트코인(BTC)은 2008년 10월 사토시 나카모토라는 가명을 쓰는 프로그래머가 개발했다. 그는 같은 해 11월 1일 비트코인 백서를 발간한 뒤 2009년 1월 프로그램 소스를 배포했다. 비트코인은 통화를 발행하는 중앙은행이 없이 세계적 범위에서 P2P 방식으로 개인들 간에 자유롭게 송금 등의 금융 거래를 할 수 있게 설계되어 있다. 또 중앙은행을 거치지 않아 수수료 부담이 적다. 거래 장부는 블록체인 기술을 바탕으로 세계적인 범위에서 여러 사용자들의 서버에 분산하여 저장하기 때문에 해킹이 불가능하다. 비트코인은 지갑 파일의 형태로 저장된다. 이 지갑에는 각각의 고유 주소가 부여되며, 그 주소를 기반으로 비트코인의 거래가 이루어진다. 비트코인은 1998년 웨이따이가 사이버펑크 메일링 리스트에 올린 '암호화폐(cryptocurrency, 가상화폐)'라는 구상을 최초로 구현한 것 중 하나다. 회의론과 호기심 갑론을박 암호화폐 커뮤니티는 사토시 나카모토가 다시 등장한 SNS를 두고 음모론부터 회의론까지 다양한 반응을 보였다. 저명한 암호화폐 분석가인 애덤 코크란(Adam Cochran)과 크라켄(Kraken) 거래소를 포함한 다양한 사용자와 단체가 진위 여부를 가리는 토론에 참여했다. 많은 사람들은 이 계정이 사기꾼에 의해 악용될 수 있으므로 계정에서 제공할 수 있는 링크를 클릭하지 말라고 경고했다. 대부분의 사용자는 실제 나카모토 사토시가 익명성을 위협하는 기능을 구독하지 않을 것이며, 잠재적인 보안 위협이 있는 앱을 사용하지 않을 것이라는 의견을 보였다. 커뮤니티 회원들은 이 계정이 자칭 비트코인 창시자라고 주장하는 크레그 라이트(Craig Wright)의 계정과 연결되었을 수 있다는 의혹을 제기하기도 했다. 크레이그 라이트는 오스트레일리아의 컴퓨터 과학자이자 사업가이며 한때 자신이 사토시 나카모토라고 주장했으나, 여러 의혹이 불거지면서 그 주장을 철회했다. 베일에 싸인 인물인 '진짜' 사토시 나카모토는 2008년 혁명적인 비트코인 백서를 공유한 후, 점차 공개 활동에서 물러났고 2010년경 온라인 포럼에서 사라졌다. 그러나 사토시 나카모토가 전면에서 사라진 후 비트코인 가격이 급등락을 거듭할 때마다 그(혹은 그들)의 신원에 대한 더 많은 추측과 호기심을 불러일으키고 있다.
-
- 경제
-
'비트코인 창시자' 사토시 나카모토, 소셜 미디어 계정 5년 만에 재등장
-
-
홍채 스캔 '월드코인', 영국·독일 등 조사 직면...문제점은 무엇?
- 오픈AI 샘 알트먼 최고경영자(CEO)가 지난 7월 24일 출시한 홍채 스캔 암호화폐 프로젝트 '월드코인'이 개인 정보 보호 문제로 영국 , 독일, 프랑스 등 세계 각국 규제 기관의 조사에 직면했다. 월드코인은 알트먼이 독일 출신 알렉스 블라니아와 2019년 공동 창립한 블록체인 프로젝트다. 범용인공지능 시대에 인간의 일자리가 줄어들면 보편적 기본소득(UBI)을 보장해야 한다는 비전을 가지고 시작했다. 홍채 인식을 통해 인간임을 증명하면 디지털 신분증명인 월드ID가 발급되고, 매주 월드코인 1개가 지급되는 구조다. 영국과 프랑스 독일 등 선진국 규제 기관은 지난 7월 월드코인이 출시 직후 데이터 수집에서 홍채 스캔을 통해 사용자에게 암호화폐를 지급하는 방식에 주목해 월드코인을 조사하겠다고 발표했다. 홍채 스캔 '월드코인' 프로젝트란? 월드코인 프로젝트의 핵심 서비스는 실제 인간만이 가질 수 있는 계정인 '월드 ID'다. 신원을 확인하고 월드 ID를 발급받기 위해 고객은 볼링공 크기의 은색 공인 '오브(orb)'를 사용해 직접 홍채 스캔을 신청해야 한다. 오브의 홍채 스캔을 통해 실제 사람임을 확인하면 월드 ID가 생성된다. 일부 국가에서는 망막 스캔을 제공하면 새로운 '신원 및 금융 네트워크'를 구축하기 위한 계획의 일환으로 월드코인에서 만든 자체 암호화폐 WLD를 무료로 제공하기도 한다. 이 프로젝트는 시범 테스트에서 이미 2백만 명의 사용자를 확보했으며, 지난 7월 말 출시와 함께 20개국 35개 도시에서 홍채 스캔을 위해 오브 운영을 확대하고 있다. 월드코인 측은 인간과 매우 유사한 언어를 구사하는 챗GPT(ChatGPT)와 같은 생성형 AI 챗봇의 시대에는 월드 ID가 필요할 것이라고 주장했다. 알트먼은 월드코인이 생성형 AI로 인해 경제가 어떻게 재편될 것인지에 대한 해답을 제시할 수 있을 것이라고 말했다. 그는 월드코인 출시 직후 트위터 통해 "(월드코인 프로젝트의) 목표는 인간성 증명(proof of personhood, PoP)을 통해 글로벌 금융 및 신분증명 네트워크를 만드는 것"이라고 밝혔다. 또 "이런 일은 AI 시대에 특히 중요하며, 월드코인이 미래 AI 시스템의 접근권한, 혜택, 거버넌스에 대한 논의에 기여하길 바란다"고 말했다. '망막 스캔'으로 개인정보 노출...사기 악용 우려 그러나 월드코인의 홍채 스캔 방식은 개인 정보 유출과 사기 위험에 노출될 수 있다는 비판을 받고 있다. 영국, 독일, 프랑스 등 여러 국가의 데이터 규제 기관은 월드코인의 개인 데이터 수집 방식을 조사하겠다고 나섰다. 이더리움 공동 창시자 비탈릭 부테린도 월드코인의 인증 시스템이 개인 정보 보호와 보안 등 여러 문제점을 가지고 있다고 지적했다. 월드코인 측은 홍채 스캔 과정에서 사용자의 개인 정보를 저장하지 않으며, 오브는 단지 실제 사람임을 확인하는 역할만 한다고 주장했다. 또한 월드 ID는 온라인에서 실제 사람과 AI 봇을 구분하는 데 도움이 될 것이라고 말했다. 그럼에도 영국의 데이터 규제 당국인 정보위원회는 월드코인 출시 다음날 개인 데이터 수집이 의심스럽다면서 홍채 스캔 프로젝트를 조사하겠다고 밝혔다. 프랑스와 독일, 심지어 아프리카 국가인 케냐도 월드코인의 홍채 스캔에 대해 우려를 제기했다. 암호화폐 이더리움 공동 창시자 비탈릭 부테린(Vitalik Buterin) 또한 지난 7월 25일 새로 출시된 월드코인의 인증 시스템인 '인간성 증명(PoP)' 방식에 대해 우려를 표명했다. 부테린은 "월드코인의 인증 시스템은 접근성, 개인 정보 보호, 보안 및 중앙 집중화와 관련된 문제에 직면해 있다"고 지적했다. 부테린에 따르면 맞춤형 생체 인식 장치는 모든 개인이 접근할 수 없으며 동일한 장치의 적절한 구성을 보장하지 않는다. 그는 다른 사람이 월드 아이디 소지자의 홍채를 스캔하면 사기 가능성이 높아진다고 우려를 표명했다. 또 전화 해킹 우려가 있고 사이버 공격의 가능성을 제기했다. 반면 월드코인은 인증 과정에서 사용자의 개인 정보를 저장하지 않으며, 홍채 스캔은 단지 사용자가 봇이 아닌 사람인지 확인해 사기 행위를 방지하는 것이 목적이라고 주장했다. 프랑스 국가정보자유위원회(BayLDA)에서도 월드코인의 홍채 스캔 데이터 수집 방식에 대해 "의심스럽다"고 밝혔다. 독일 바이에른 주 데이터 보호 감독청(BayLDA) 또한 홍채를 스캔하는 인간 신원 확인 프로젝트인 월드코인에 대해 조사 중이다. 로이터에 따르면 독일의 데이터 감시 기관은 민감한 생체 인식 데이터의 대규모 처리에 대한 우려 때문에 작년 말부터 샘 알트먼의 월드코인 프로젝트를 조사해 왔다. 마이클 윌 BayLDA 청장은 "망막 스캔 데이터 기술이 금융 정보 전송에 사용하기에 적합하지 않다"며 "월드코인 사용자들에게 잠재적인 위험을 초래할 수 있다"고 지적했다. 선진국 외에 암호화폐 거래가 활발한 아프리카 국가인 케냐도 지난 2일 공공 안전에 대한 잠재적 위험을 이유로 월드코인의 현지 활동을 중단시켰다. 키투레 킨디키 케냐 내무부 장관은 성명에서 "관련 보안, 금융 서비스 및 데이터 보호 기관이 앞서 언급한 활동의 진위 여부와 적법성을 확인하기 위해 문의와 조사를 시작했다"고 말했다. 케냐 통신청과 데이터 보호 위원회는 월드코인의 운영에 대한 예비 검토 결과, 금전적 보상에 대한 대가로 소비자 동의를 얻는 것이 유인 행위에 해당한다고 밝혔다. 킨디키 장관은 정부가 월드코인의 활동에 대해 우려하고 있으며, 정부 기관은 월드코인이 수집한 데이터를 어떻게 사용할 것인지 조사할 것이라고 말했다. 그는 자세한 설명 없이 월드코인의 활동에 관여하는 모든 사람에 대해 조치가 취해질 것이라고 덧붙였다. 현지 언론은 2일 현재 35만 명 이상의 케냐인이 약 7000 케냐 실링(49달러) 상당의 무료 암호화폐 토큰을 받고 월드코인에 가입했다고 보도했다. 케이맨 제도에 본사를 둔 월드코인 재단은 케냐 및 기타 국가에서 시행 중인 개인정보 보호 조치에 대한 이해를 높이기 위해 당국과 협력할 것이라고 밝혔다. 월드코인 재단은 성명에서 "월드코인은 글로벌 디지털 경제에 포용적이고, 개인정보를 보호하며, 탈중앙화된 진입로를 제공하기 위해 최선을 다하고 있으며, 현지 규제 당국 및 기타 이해관계자와 긴밀히 협력하면서 케냐에서 서비스를 재개하기를 고대하고 있다"고 말했다. 월드코인의 암호화폐 WLD 코인 가격은? 한편, 월드코인의 WLD 토큰은 바이낸스와 OKX 등 주요 거래소에 상장된 지난 7월 24일 출시 직후 20% 이상 급등해 최고가인 3.30달러를 기록했다. 이후 각국의 규제 기관의 반대 등에 부딪혀 가격이 하락한 WLD 코인은 16일 현재 약 1.5 달러에 거래되고 있다. 국내 가상자산 거래소 중에는 빗썸과 코빗이 월드코인의 WLD 토큰을 상장해 거래를 지원하고 있다. 빗썸에선 한때 7000원까지 이상 급등하기도 했으나, 16일 현재는 글로벌 평균 수준인 2200원을 유지하고 있다. 개인 정보가 고스란히 노출될 수 있는 인간 신원 확인을 위한 홍채 스캔과 코인 무료 제공을 결합한 월드코인이 향후 어떻게 발전할지 귀추가 주목되고 있다.
-
- 경제
-
홍채 스캔 '월드코인', 영국·독일 등 조사 직면...문제점은 무엇?