김정원 / 한국연구재단 / 문화융복합 / 인공지능 시대 프라이버시 문제와 해결: 이용자의 프라이버시 위험 인식과 개인 정보 보호를 위한 대응 행동 전략 / 2024년도 인문사회학술연구교수(A유형) 예비선정
연구목표:
본 연구는 인공지능 기술이 발전함에 따라 인공지능과의 상호작용 과정에서 나타날 수 있는 프라이버시 문제를 고찰하고 이용자가 개인정보를 보호할 수 있는 대응 행동에 적극적으로 참여할 수 있도록 전략을 제안하기 위해 설계되었다. 구체적으로, 1단계에서는 프라이버시 위험의 유형화와 인공지능 대상 개인정보 보호 대응행동의 유형화를 통해 현재 인공지능의 프라이버시 위험 인식-대응 행동 간의 차이를 규명하고 프라이버시 위험 인식이 높음에도 실제 대응 행동으로 이어지지 않는 제약 요인 프레임워크를 제안하여 문제의 원인을 파악한다. 2단계 연구에서는 1단계의 제약 요인 프레임워크를 바탕으로 이용자가 개인정보 보호 대응 행동을 적극적으로 실천할 수 있도록 하는 효과적 전략을 제안한다. 제안한 전략의 효과성을 검증하기 위해 행동 관찰 연구, 종단 연구 등의 방법을 다양하게 활용하여 대응 행동 활성화 전략의 효과성을 단기, 장기적 관점에서 검증하고 효과를 비교할 것이다. 마지막으로 1,2단계의 중간 연구 결과물을 종합적으로 활용하여 이용자의 개인정보 보호 행동 활성화를 위한 교육 프로그램을 개발하고 확산하고자 한다. 이와 같은 연구는 인공지능 기술의 상용화에 있어 이용자들의 개인정보를 보호하기 위해 다양한 기술적, 법적 논의가 이루어지고 있지만 정작 개인정보의 주체인 개인 관점의 논의는 제한적인 상황에서 이용자가 자신의 개인정보 권리를 주장하고 적극적으로 참여할 수 있도록 하고, 인공지능 시대에 나타나고 있는 개인정보 보호 문제 해결에 기여할 수 있을 것이다.
기대효과:
본 연구는 인공지능 기술의 발전으로 인한 상호작용에서 발생할 수 있는 프라이버시 문제를 살펴보고, 이에 대한 이용자의 대응 행동을 적극적으로 촉진하기 위한 전략을 제안하는데 중점을 두고 있다. 첫 번째로, 현재의 프라이버시 문제를 이해하기 위해 프라이버시 위험의 유형화와 인공지능 대상 개인정보 보호 대응 행동의 유형화를 통한 규명을 진행하였다. 두 번째로는 프라이버시 위험 인식과 실제 대응 행동 간의 차이를 검증하여, 위험 인식-행동 제약 요인 프레임워크를 제안하였다. 이를 바탕으로 이용자의 개인정보 보호 대응 행동을 유도할 수 있는 효과적인 전략을 수립하였다. 이러한 연구의 기대 효과는 아래와 같다.
[인공지능 대상 프라이버시 문제 진단과 해결의 기초자료]
본 연구는 인공지능을 하나의 사회적 상호작용의 대상으로 하여 진행한 기존 연구의 한계를 극복하고, 인공지능 하나의 개인정보 공개 대상으로 살펴봄으로써 인공지능에게 개인정보를 공개하는 상황에서 이용자들이 어떻게 프라이버시 문제를 인식하고 보호하는지에 중점을 두었다. 이 과정에서 인공지능 프라이버시 위험 인식의 유형화 척도, 개인정보 보호 대응 행동의 유형화 척도, 위험 인식-대응 행동의 제약 프레임워크 등 다양한 중간 결과물을 도출하여, 인공지능 프라이버시 문제에 대한 중요한 기초 자료를 제공할 수 있다.
[다양한 연구 방법론을 활용한 대응 행동의 관찰과 전략 효과성 검증]
현장실험 연구 방법을 통해 인공지능이 개인정보를 요청하는 실제 상황을 조성하고 피험자가 인공지능과 직접적으로 상호작용하며 개인정보 교환 상황에 몰입하도록 하여 대응 행동을 관찰할 수 있도록 하였다. 이런 환경에서 개인정보 보호 대응 행동의 유도 전략 효과성이 검증되었다는 것은 그만큼 해당 전략이 충분히 유효함을 시사한다. 즉, 행동 관찰이 가능한 연구 방법론의 적용은 학문적으로도 연구 결과를 풍성하게 할 뿐만 아니라 추후 프라이버시 위험 대응 행동을 유도할 수 있는 전략의 효과성을 충분하게 검증하였다는 점에서 실무적으로도 한층 더 유의미한 결과를 도출할 것으로 기대한다. 특히 본 연구는 종단 연구 방법을 통해 제안하고 있는 대응 행동 유도 전략의 장기적인 효과를 비교하는 것에 더해 기업과의 산학협력을 통해 소비자가 직접 본 연구의 전략이 적용된 제품을 이용해보고 행동의 결과 차이를 비교해본다는 점에서 실무적 시사점이 높을 것이다.
[신뢰할 수 있는 인공지능의 발전 방향성 제안]
프라이버시는 혼자 있을 권리, 개인정보에 대한 개인의 통제 등의 개념을 통해 인간의 기본적인 권리로 고려되어 왔으나 인공지능의 발전은 개인의 프라이버시 권리를 지키는 것을 더 어렵게 만들고 있다. 이와 같은 상황에서 본 연구는 개인정보 보호를 위한 대응 행동의 제약 요인 프레임워크를 제안함으로써 개인정보 보호의 문제를 해결하기 위한 원인을 규명하고 해결 방안을 제시하고 있다. 특히 인공지능 특성(e.g., 투명성, 책임성), 정책 환경 특성(e.g., 개인정보 동의서 제공 방식, 개인정보 보호 인증)과 같이 기업이나 정부 기관에서 인공지능 개발이나 정책 개발에 적극적으로 적용할 수 있는 차원의 요인들을 제안하고 있다는 점에서 향후 신뢰할 수 있는 인공지능을 위한 발전 방향성과 정책적 가이드라인의 시작점이 될 수 있을 것이다. 나아가, 매년 연구 결과물을 학술대회에서 발표하고, 4년차와 5, 6년차의 연구 결과물을 바탕으로 학술포럼을 기획하고 컨퍼런스/포럼 등에 발표함으로써 인공지능의 프라이버시 위험과 개인정보 보호를 위한 대응의 사회적 논의를 충분하게 활성화할 수 있을 것으로 기대한다.
[개인정보 보호를 위한 이용자 교육 프로그램 개발]
본 연구의 다양한 중간 결과물들은 향후 개인정보 보호를 위해 인공지능 이용자 교육 프로그램을 개발하는 데 활용될 수 있을 것이다. 먼저, 본 연구의 중간 결과물인 인공지능 프라이버시 위험 인식의 유형화 척도, 개인정보 보호 대응 행동의 유형화 척도는 개인의 프라이버시 보호 수준을 진단할 수 있는 수단으로 활용될 수 있다. 이후 위험 인식-대응 행동의 제약 프레임워크를 바탕으로 개인의 대응 행동을 저해하는 요인에 대해 교육할 수 있는 학습 자료를 만들어 개인정보 보호를 위한 해결 방안을 모색해나갈 수 있을 것이다. 이와 같은 자료를 바탕으로 영상 강의 자료를 제작해 한국인터넷진흥원, 개인정보보호위원회와 같은 관련 기관의 유튜브 채널을 통해 확산한다면 본 연구 결과를 활용해 직접적으로 개인의 대응 행동 실천 유도에 도움이 될 수 있을 것으로 기대한다.
연구요약:
본 연구는 인공지능을 대상으로 하는 개인정보 보호의 문제와 이에 대한 이용자의 효과적인 대응 행동을 제안하기 위해 설계되었다. 이를 위해 연구는 2단계에 걸쳐 진행된다. 1단계 1년차 연구에서는 위험의 유형화를 통해 인공지능 대상 프라이버시 문제를 정립한다. 문헌 검토를 통해 인공지능 프라이버시 문제의 현황을 파악하고, 인터뷰와 설문연구 방법을 활용하여 인공지능의 개인정보 수집에 대한 이용자의 프라이버시 위험 인식을 유형화한다. 2년차 연구에서는 인공지능의 프라이버시 위험에 대한 이용자의 대응 행동 현황을 탐색하고, 대응 행동을 유형화한다. 문헌검토와 심층 인터뷰에 더해 다이어리 스터디와 같은 연구 방법을 활용하여 실제 대응 행동이 어떻게 이루어지고 있는가를 파악하고, 설문 조사 연구 방법을 통해 인공지능이 개인정보를 요청했을 때 이용자들이 어떻게 대응하는가를 유형화한다. 나아가 유형별 프라이버시 위험이 각 대응 행동 의도에 미치는 상대적인 영향력을 밝히고, 현장 실험 연구 방법을 이용하여 다양한 프라이버시 위험의 종류에 따른 이용자의 대응 행동을 관찰한다. 이러한 연구를 통해 인식-행동의 차이를 규명할 것이다.
1단계의 연구를 통해 프라이버시 위험의 유형과 대응 행동의 유형을 구체화하고, 이를 측정할 수 있는 척도를 개발하여 위험 인식-행동 간의 차이를 밝혔다면, 2단계의 연구에서는 이러한 차이의 원인을 파악하여 최종적으로 이용자의 개인정보 대응 행동을 유도할 수 있는 전략을 모색하여 프라이버시 문제 해결에 기여하고자 한다. 3년차 연구는 2년차에서 밝힌 인식-행동 차이의 원인 요인을 탐색하여 대응 행동을 저해하는 제약 요인 프레임워크를 완성한다. 대응 행동 제약 프레임워크는 요인의 차원을 1)이용자, 2) 인공지능, 3) 정책 환경으로 구분하고 일반 이용자, 전문가 대상의 심층 인터뷰와 설문 연구 방법을 통해 다각적인 관점에서 문제의 원인을 파악할 것이다. 4년차의 연구에서는 3년차 제약 요인 프레임워크를 바탕으로 대응 행동의 활성화 전략을 제안하고, 일련의 현장 실험 연구를 진행하여 활성화 전략을 적용했을 때(vs. 활성화 전략의 부재) 인공지능의 개인정보 요청에 대한 피험자의 대응 행동을 관찰함으로써 전략의 효과성을 검증한다. 4년차 연구에서 1) 이용자, 2) 인공지능, 3) 정책 환경 차원의 대응행동 활성화 전략의 효과성을 현장 실험 연구 방법으로 확인했다면, 5년차 연구에서는 종단 연구 방법을 활용하여 전략의 장기적인 효과를 검증하고, 영향력의 지속 정도를 비교할 것이다. 예를 들어, 네이버와 같은 인공지능 개발 기업과의 협업을 통해 ‘투명성’의 정도가 높고, 낮음으로 조작된 인공지능 스피커를 실험 집단에 따라 제공하고, 6개월 간의 추적 관찰을 통해 프라이버시 위험 인식, 개인정보 공개량, 인공지능 스피커 이용 빈도, 개발사 신뢰 등의 내용을 측정하여 전략의 효과성을 검증한다. 마지막으로, 6년차에는 1-5년차의 중간 연구 결과물을 활용하여 개인정보 보호를 위한 이용자 교육 프로그램을 개발한다. 1,2년차의 프라이버시 위험 인식 척도와 개인정보 보호를 위한 대응 행동 척도를 활용하여 개인정보 보호에 있어 인식-행동의 차이를 자가 진단할 수 있도록 하고 개인정보 보호 행동의 필요성을 교육한다. 3-5년차의 프라이버시 위험 인식-행동의 제약 프레임워크와 대응 행동 활성화 전략 제안을 바탕으로 대응 행동 실천과 관련된 강의 자료를 제작하고, 한국인터넷진흥원, 개인정보보호위원회와 같은 관련 기관의 채널을 통해 확산할 것이다.
키워드:
인공지능 프라이버시, 프라이버시 위험, 프라이버시 대응 행동, 개인정보 보호, 신뢰할 수 있는 인공지능
AI Privacy, Privacy Risk, Privacy Coping Behaviors, Personal Information Protection, Trustworthy AI