시장보고서
상품코드
1844755

IDC PeerScape : Safe AI를 관리하기 위한 프랙티스

IDC PeerScape: Practices for Managing Safe AI

발행일: | 리서치사: IDC | 페이지 정보: 영문 14 Pages | 배송안내 : 즉시배송

    
    
    



※ 본 상품은 영문 자료로 한글과 영문 목차에 불일치하는 내용이 있을 경우 영문을 우선합니다. 정확한 검토를 위해 영문 목차를 참고해주시기 바랍니다.

이 IDC PeerScape에서는 일부 조직들이 직원, 공급업체, 파트너에게 안전한 AI의 핵심 개념, 그 중요성, 그리고 끊임없이 진화하는 AI 환경에서 성공적인 Safe AI 관행을 유지하는 방법을 어떻게 교육하고 있는지 탐구합니다. "AI가 부정확하거나 오해의 소지가 있거나 불완전한 데이터로 인해 빈번한 오류, 즉 '환각'을 일으킨다는 점은 잘 알려져 있습니다. AI는 양질의 데이터와 불량 데이터를 구분하는 능력이 거의 없기 때문에, 기업과 시민 모두 이러한 오류가 사람이나 조직에 실질적인 피해를 주지 않을 것이라고 믿기 어려울 수 있습니다. 바로 여기서 Safe AI가 중요한 역할을 하며, 근로자와 조직이 AI 투자에 대한 신뢰와 확신을 가질 수 있도록 합니다."라고 IDC의 IT 이그제큐티브 프로그램의 연구원인 David Weldon는 말했습니다.

IDC PeerScape

개요

피어 인사이트

  • 실천 1 : 스탭이 AI의 기능과 한계를 이해하고, AI 벤더가 데이터 프라이버시, 보안, 윤리적 사용 기준을 충족시키고 있는 것을 확인하기 위한 트레이닝을 제공한다.
    • 과제
    • 사례
      • Fox Rothschild
      • Carnegie Mellon University
      • Z/Yen Group
    • 가이던스
  • 실천 2 : 윤리적 배려와 비즈니스 위 이익을 연결시키는 적극적 한편 체계적인 AI 도입 어프로치를 채택한다.
    • 과제
    • 사례
      • Fox Rothschild
      • Carnegie Mellon University
      • Z/Yen Group
    • 가이던스
  • 실천 3 : 설명 가능성과 문서화를 강화하고, 이해와 신뢰의 구축을 지원하는 AI 툴과 실천에 투자한다.
    • 과제
    • 사례
      • Fox Rothschild
      • Carnegie Mellon University
      • Z/Yen Group
    • 가이던스
  • 실천 4 : 컴플라이언스, 바이어스, 보안의 취약성에 대해 AI 시스템을 정기적으로 테스트해 평가한다.
    • 과제
    • 사례
      • Fox Rothschild
      • Carnegie Mellon University
      • Z/Yen Group
    • 가이던스
KSA 25.10.29

This IDC PeerScape explores how some organizations are educating employees, vendors, and partners on what safe AI is all about, why it's important, and how to maintain successful safe AI practices in a constantly evolving AI landscape."It is well understood that AI makes frequent errors - or 'hallucinations' - due to inaccurate, misleading, or incomplete data," says David Weldon, research adjunct in IDC's IT Executive Programs (IEP). "Because AI has little ability to distinguish good data from bad, it can be difficult for businesses and citizens alike to feel such lapses might not do genuine harm to people or organizations. That is where safe AI comes into play, enabling workers and organizations to place trust and confidence in their AI investments."

IDC PeerScape Figure

Executive Summary

Peer Insights

  • Practice 1: Provide Training to Help Staff Understand AI's Capabilities and Limitations, and Ensure AI Vendors Meet Standards for Data Privacy, Security, and Ethical Use
    • Challenge
    • Examples
      • Fox Rothschild
      • Carnegie Mellon University
      • Z/Yen Group
    • Guidance
  • Practice 2: Take a Proactive and Structured Approach to AI Adoption That Ties Ethical Considerations to Business Gains
    • Challenge
    • Examples
      • Fox Rothschild
      • Carnegie Mellon University
      • Z/Yen Group
    • Guidance
  • Practice 3: Invest in AI Tools and Practices That Enhance Explainability and Documentation to Aid in Building Understanding and Confidence
    • Challenge
    • Examples
      • Fox Rothschild
      • Carnegie Mellon University
      • Z/Yen Group
    • Guidance
  • Practice 4: Test and Evaluate AI Systems Regularly for Compliance, Bias, and Security Vulnerabilities
    • Challenge
    • Examples
      • Fox Rothschild
      • Carnegie Mellon University
      • Z/Yen Group
    • Guidance
샘플 요청 목록
0 건의 상품을 선택 중
목록 보기
전체삭제