Education*
Devops
Architecture
F/B End
B.Chain
Basic
Others
CLOSE
Search For:
Search
BY TAGS
linux
HTTP
golang
flutter
java
fintech
개발환경
kubernetes
network
Docker
devops
database
tutorial
cli
분산시스템
www
블록체인
AWS
system admin
bigdata
보안
금융
msa
mysql
redis
Linux command
dns
javascript
CICD
VPC
FILESYSTEM
S3
NGINX
TCP/IP
ZOOKEEPER
NOSQL
IAC
CLOUD
TERRAFORM
logging
IT용어
Kafka
docker-compose
Dart
가트너 선정 2023 10대 전략 기술 트랜드 분석 - AI 신뢰, 위험, 보안관리
Recommanded
Free
YOUTUBE Lecture:
<% selectedImage[1] %>
yundream
2023-03-31
2023-03-09
2425
 ### ATRISM 이란 ATRISM(AI Trust, Risk and Security Management)의 줄임말이다. ML과 AI 솔류션은 이제는 여러 산업에서 일상적으로 사용하고 있다. 인공지능 솔류션은 기존에 알려진 것과는 다른 방식으로 문제를 해결하기 때문에, AI의 신뢰, 위험 보안관리가 디지털 면역시스템의 중요한 고려사항이 되고 있다. **AI Trust**는 AI 시스템이 의도한 기능을 편견 없이 올바르게 수행되는 성질을 의미한다. AI는 대량의 데이터를 기반으로 패턴을 만들어진다. 따라서 수집된 데이터의 성향, 품질에 따라서 AI는 편향성, 편견, 차별성 정보를 출력할 수 있다. AI Trust는 투명성, 설명 가능성(왜 이런 정보를 출력했는지) 및 결정을 검증할 수 있는 능력을 통해 확립될 수 있다. AI Risk 관리는 AI 시스템의 사용과 관련된 잠재적 위험을 식별, 평가하고 완화하는 작업이다. AI 교육에 사용되는 데이터의 오류, 잘못된 데이터의 수집등으로 AI가 개인이나 조직에 해로운 결정을 내릴 수 있으므로 이는 매우 중요한 활동이다. AI Security 관리는 무단 엑세스, 침입, 조작으로 부터 AI 시스템을 보호하는 것을 의미한다. AI의 기능은 데이터로 부터 만들어지기 때문에 AI 교육에 사용되는 데이터와 AI가 실행되는 인프라 네트워크 보호까지 포함된다. 또한 AI 시스템이 변조와 적대적인 공격에 저항하도록 설계되었는지를 확인하는 것도 포함된다. 전통적인 애플리케이션 / 서비스에 대한 보호 체계가 확립되었듯이, AI가 주요 영역에 사용될 수록 AI에 대한 보안과 보호는 중요한 과제가 될 것이다 ### 인공지능으로 인해 발생할 수 있는 문제들 2016년 5월 미국 백악관이 발표한 [Big Risks, Big Opportunities; the Intersection of Big Data and Civil Rights](https://obamawhitehouse.archives.gov/blog/2016/05/04/big-risks-big-opportunities-intersection-big-data-and-civil-rights) 에서 비데이터와 인공지능 관련 기술들은 "가정이 아닌 데이터 기반 의사결정을 내릴 수 있는 막대한 새로운 기회를 창출"할 것으로 예상했지만 또한 불완전한 데이터 입력, 논리, 확률, 사람에 의존하는 기술로 중대한 윤리적 문제에 직면할 수 있다고 경고했다. 예를 들어 마케팅은 고객을 신중하게 선택하기 위해서 **고정관념**을 기반으로하는 경우가 있으며, 신중하게 관리하지 않을 경우 차별과 편견을 강화시킬 수 있다. > 빅데이터와 관련기술은 자동화된 의사 결정과정에 차별을 "인코딩"할 수 있다. 2021년 2월 대한민국 국회입법조사처는 [이루다를 통해 살펴본 인공지능 활용의 쟁점과 과제](https://www.nars.go.kr/fileDownload2.do?doc_id=1NUbiF2GYeU&fileName=) 에서 "20세 여대생으로 설정된 이루다"에 대한 일부 이용자들의 대화 경험이 인터넷에 공유되는 과정에서 차별과 혐오 표현들이 내장되었으며 또한 문제의 원인을 찾는 과정에서 기계학습에 사용된 데이터가 개인정보 보호 법제를 위반했다는 의견을 제시했다. 실제 이루다는 출시 20일만에 서비스를 전면 중지한다. 의료 분야의 경우 진단 도구 및 치료 계획 소프트웨어에 AI를 접목함으로써 기능을 크게 향상시킬 수 있는 잠재력을 가지고 있다. 하지만 이런 시스템을 훈련하는데 사용되는 데이터가 편향되거나 데이터가 오염될 경우 잘못된 진단이나 치료 계획으로 이루어질 수 있다. 또한 AI를 기반으로 하는 예측은 종종 불확실하거나 활률적인 측정으로 생성되고는 하는데, 이는 의료종사자가 잘못된 판단을 내리도록 하는 잠재적인 위험이 될 수 있다. 자율 주행의 경우 차량에 탑승한 승객과 다른 운전자의 안전은 센서 데이터를 올바르게 해석하고 안전한 운전 결정을 AI의 능력에 달려 있다. 자율주행차는 네트워크 취약성, 센서조작, 알고리즘 취약성, 물리적 공격 등 다양한 수단에 의해 공격당할 수 있기 때문에 해킹과 공격수단으로 부터 자동차와 승객을 보호하기 위한 안전 메커니즘을 갖춰야 한다. 자동차 업계는 이러한 종류의 공격을 방지하기 위해서 네트워크 격리, 암호화, 침입탐지스스템, 운행 모니터링 시스템과 같은 사이버 보안 조치에 투자하고 있다. 자율 주행이 생명과 관련된 문제라면 금융은 자산과 관련된 문제다. 금융 서비스는 AI를 신용관리, 대출 승인, 위험관리, 투자 결정과 프로세스에 점점 더 많이 사용하고 있다. 이러한 시스템에 문제가 생긴다면 자산과 관련된 중요한 영향을 미칠 수있다. 데이터가 오염이 되어서 차별을 하게 될 경우, 특정 계층의 사람들은 금융서비스에서 소외되는 등의 문제가 발생 할 수도 있다. 이러한 예는 AI 시스템을 신뢰할 수 있도록 하기 위해서 AI Trust, AI Risk, AI Security 관리가 중요하다는 것을 보여준다. AI는 확률적 혹은 그 결과를 예측하기 힘든 상황이 있을 수 있기 때문에, 특히 주의해서 관찰할 필요가 있다. ### 클라우드 환경에서의 ARSM 클라우드는 가장 보수적인 조직인 금융, 국방, 의료 영역에서도 사용하고 있다. AWS의 경우 [규정 준수 프로그램](https://aws.amazon.com/ko/compliance/programs/) 을 통해서 서드 파티 위험관리, 글로벌 품질 표준, 보안 및 복원성, 보안 관리 제어, 프라이버시 정보관리 PCI DSS, SOC 1/2/3, GDPR, ED 데이터보호 .. 등등 광범위한 규정을 준수하고 있다. 또한 데이터, 네트워크, 시스템, 그리고 AI Trust, Risk, Security 관리 구축을 위한 여러 단계의 툴/기술을 제공하고 있다. 1. 데이터보안 : Amazon S3, Amazon EBS, Amazon RDS와 같은 다양한 데이터 서비스에 대한 접근제어, 데이터 암호화를 구축하고 있다. 2. 모델에 대한 액세스 제어 : IAM(AWS Identity and Access Managent), Amazon SageMaker와 같은 서비스를 통해서 승인된 사용자만 모델에 접근 할수 있도록 보장하고 있다. 3. 이상 징후 모니터링 : Amazon CloudWatch, Amazon GuardDuty, AWS CloudTrail 등의 솔류션을 이용하여 시스템과 정책, 데이터의 예기치 않은 접근과 변경사항, 모델의 예기치 않은 동작을 모니터링 한다. 4. 정기적인 감사 및 평가 수행 : Amazon Inspector, AWS Security Hub와 같은 서비스를 이용하여 AI 시스템을 정기적으로 감사하고 평가한다. 5. 거버넌스 프레임워크의 설정 : Amazon Macie, AWS Organization과 같은 서비스를 이용해서 AI 시스템이 허용 가능한 위험 및 규정 준수 경계 내에서 작동하는지 확인한다. 6. 보안 인프라 : AWS는 SOC, PCI DSS 및 ISO와 같은 인증을 보유하고 있다. 네트워크 측면에서는 외부로 부터 격리된 VPC와 각종 접근제어 시스템을 제공함으로써 인프라와 네트워크에 대한 높은 수준의 보안을 제공한다. ## ARSM에 대한 참고 기사 2023년 3월 일론머스크, 스티브 워즈니악, 유발 노아 하라리, Andrew Yang를 포함한 1000 여명 이상이 서명한 [Pause Giant AI Experiments: An Open Letter](https://futureoflife.org/open-letter/pause-giant-ai-experiments/) 문서를 읽어보자. 요약하자면 현대의 AI 시스템은 일반적인 작업에서 인간과 경쟁하게 되었다, 하지만 심지어 제작자를 포함한 그 누구도 이해할 수 없는 디지털 마인드의 경쟁적인 개발은 사회와 인류에 심각한 위험을 초래할 수 있다. **강력한 AI 시스템은 그 효과가 긍정적이고 위험을 관리할 수 있다는 확신이 있을 때만 개발해야 한다**면서 "**모든 API 연구실에서 GPT-4 보다 강력한 AI 시스템 학습을 최소한 6개월 즉시 중단할 것을 요청**"했다. 1. AI는 인간보다 기하급수적으로 똑똑해질 가능성이 있다. AI가 인간의 지능을 능가할 수 있으며, 인간의 가치와 이익에 부합하지 않는 결정을 내릴 수 있다.(혹은 정보를 줄 수 있다.) 2. AI는 악의적인 의도로 설계할 수 있다. 여기에는 무기를 개발하거나 인간을 속이도록 설계된 AI 시스템을 만드는 것이 포함된다. 3. AI는 상황의 전체적인 복잡성을 포착하지 못한체 데이터 기반으로 결정을 내릴 수 있다. 이것은 인간에게 해로운 의도하지 않은 결과를 초래할 수 있다. 4. AI는 기존 편형과 불평등을 강화할 수 있다. 5. AI는 일자리를 자동화하고 근로자를 대체할 수 있다. 자동화는 지난 수십년동안의 추세였지만 AI는 이러한 추세를 가속화하고 있다. 이것은 광범위한 실업과 사회적 불안으로 이어질 수 있다. 전반적으로 AI는 많은 이점을 가져올 수 있는 잠재력을 가지고 있지만 또한 잠재적인 위험을 인식하고 이를 완화하기 위한 노력이 중요하다. 이를 위한 신중한 설계, 규정 및 윤리적 고려가 필요하다. 기존의 다른 산업이 그랬던 것처럼 AI 관련 규제들이 만들어질 것이라고 예상된다. ### 정리 이 글은 가트너 선정 2023년 10대 전략 기술 트랜드 분석 중 AI Trust, Risk and Security Managent를 분석한 글입니다. 이 글과 관련된 또다른 정보가 궁금하다면 [가트너 선정 2023년 10대 전략 기술 트랜드 분석](https://www.joinc.co.kr/w/strategic_technology_trends_2023) 문서를 읽어주세요.
Recent Posts
Vertex Gemini 기반 AI 에이전트 개발 04. 프롬프트 엔지니어링
Vertex Gemini 기반 AI 에이전트 개발 03. Vertex AI Gemini 둘러보기
Vertex Gemini 기반 AI 에이전트 개발 02. 생성 AI에 대해서
Vertex Gemini 기반 AI 에이전트 개발 01. 소개
Vertex Gemini 기반 AI 에이전트 개발-소개
생성 AI 모델 Flux.1 설치 및 사용
GPT를 이용한 Reranker 테스트
5분만에 만들어보는 Streamlit 챗봇
Let's encrypt로 SSL 인증서 관리하기
Upscayl을 이용한 이미지 업스케일링
Archive Posts
Tags
2023 10대 전략 기술 트랜드
architecture
devops
Copyrights © -
Joinc
, All Rights Reserved.
Inherited From -
Yundream
Rebranded By -
Joonphil
Recent Posts
Archive Posts
Tags