교육 데이터에 대한 다양성의 영향

포용성 및 편향 제거를 위한 다양한 AI 교육 데이터

인공 지능과 빅 데이터는 지역 문제의 우선순위를 정하고 여러 가지 심오한 방식으로 세상을 변화시키면서 글로벌 문제에 대한 해결책을 찾을 수 있는 잠재력을 가지고 있습니다. AI는 가정에서 직장에 이르기까지 모든 환경에서 모두에게 솔루션을 제공합니다. AI 컴퓨터, 기계 학습 교육은 자동화되었지만 개인화된 방식으로 지능적인 행동과 대화를 시뮬레이션할 수 있습니다.

그러나 AI는 포함 문제에 직면하고 종종 편향되어 있습니다. 다행히 집중해서 인공지능 윤리 다양한 훈련 데이터를 통해 무의식적인 편견을 제거함으로써 다양화와 포용성 측면에서 새로운 가능성을 제시할 수 있습니다.

AI 훈련 데이터의 다양성의 중요성

Ai 교육 데이터 다양성 교육 데이터의 다양성과 품질은 하나가 다른 하나에 영향을 미치고 AI 솔루션의 결과에 영향을 미치기 때문에 관련이 있습니다. AI 솔루션의 성공 여부는 다양한 데이터 그것은 훈련됩니다. 데이터 다양성은 AI가 과적합되는 것을 방지합니다. 즉, 모델은 훈련에 사용되는 데이터에서만 수행하거나 학습합니다. 과적합을 사용하면 AI 모델이 교육에 사용되지 않는 데이터로 테스트할 때 결과를 제공할 수 없습니다.

AI 교육 현황 데이터

데이터의 불평등 또는 다양성 부족은 차별을 심화시킬 수 있는 불공평하고 비윤리적이며 비포용적인 AI 솔루션으로 이어질 것입니다. 그러나 데이터의 다양성이 AI 솔루션과 어떻게 그리고 왜 관련되어 있습니까?

모든 계층의 불평등한 표현은 얼굴의 오인식으로 이어집니다. 한 가지 중요한 사례는 흑인 커플을 '고릴라'로 분류한 Google 포토입니다. 그리고 Meta는 사용자가 '영장류 동영상을 계속 시청'할지 여부를 흑인 남성의 동영상을 보고 있는 사용자에게 묻습니다.

예를 들어, 특히 챗봇에서 소수 민족 또는 인종을 부정확하거나 부적절하게 분류하면 AI 교육 시스템에 편견이 생길 수 있습니다. 2019년 보고서에 따르면 차별 시스템 – AI의 성별, 인종, 권력, AI 교사의 80% 이상이 남성입니다. FB의 여성 AI 연구원은 Google의 15%와 10%에 불과합니다.

다양한 학습 데이터가 AI 성능에 미치는 영향

교육 데이터에 대한 다양성의 영향 데이터 표현에서 특정 그룹과 커뮤니티를 제외하면 알고리즘이 왜곡될 수 있습니다.

데이터 편향은 특정 ​​인종이나 그룹을 과소 샘플링하여 실수로 데이터 시스템에 도입되는 경우가 많습니다. 얼굴 인식 시스템이 다양한 얼굴에 대해 훈련되면 모델이 얼굴 기관의 위치 및 색상 변화와 같은 특정 기능을 식별하는 데 도움이 됩니다.

불균형한 레이블 빈도의 또 다른 결과는 짧은 시간 내에 출력을 생성하도록 압력이 가해질 때 시스템이 소수를 이상으로 간주할 수 있다는 것입니다.

오늘 AI 교육 데이터 요구 사항에 대해 논의해 보겠습니다.

AI 교육 데이터의 다양성 달성

반대로 다양한 데이터 세트를 생성하는 것도 어려운 일입니다. 특정 클래스에 대한 데이터가 완전히 부족하면 대표성이 부족할 수 있습니다. 기술, 민족, 인종, 성별, 규율 등과 관련하여 AI 개발자 팀을 더욱 다양하게 만들어 완화할 수 있습니다. 또한 AI에서 데이터 다양성 문제를 해결하는 이상적인 방법은 데이터 수집 및 큐레이션 단계에서 다양성을 주입하여 수행된 작업을 수정하려고 시도하는 대신 시작이라는 단어에서 직면하는 것입니다.

AI에 대한 과대 선전에도 불구하고 여전히 인간이 수집, 선택 및 훈련한 데이터에 의존합니다. 인간의 타고난 편향은 수집한 데이터에 반영되며, 이 무의식적 편향은 ML 모델에도 스며듭니다. 

다양한 학습 데이터 수집 및 큐레이팅 단계

교육 데이터 다양성 포함

데이터 다양성 다음을 통해 달성할 수 있습니다.

  • 과소 표현된 클래스에서 더 많은 데이터를 신중하게 추가하고 모델을 다양한 데이터 포인트에 노출하십시오. 
  • 다양한 데이터 소스에서 데이터를 수집합니다. 
  • 데이터 확대 또는 인위적으로 데이터 세트를 조작하여 원래 데이터 포인트와 뚜렷하게 다른 새로운 데이터 포인트를 늘리거나 포함합니다. 
  • AI 개발 프로세스 지원자를 채용할 때 지원서에서 직무와 관련 없는 정보를 모두 제거하십시오. 
  • 모델 개발 및 평가 문서를 개선하여 투명성과 책임성을 개선합니다. 
  • 다양성을 구축하고 AI의 포괄성 풀뿌리 수준의 시스템. 다양한 정부는 다양성을 보장하고 불공정한 결과를 가져올 수 있는 AI 편견을 완화하기 위한 지침을 개발했습니다. 

[ 또한 읽기: AI 교육 데이터 수집 프로세스에 대해 자세히 알아보기 ]

결론

현재 소수의 대형 기술 회사와 학습 센터만이 AI 솔루션 개발에 독점적으로 참여하고 있습니다. 이러한 엘리트 공간은 배제, 차별, 편견으로 가득 차 있습니다. 그러나 이들은 AI가 개발되고 있는 공간이며, 이러한 고급 AI 시스템의 논리는 과소 대표 그룹이 갖는 동일한 편견, 차별 및 배제로 가득 차 있습니다. 

다양성과 비차별에 대해 논의하는 동안 그것이 혜택을 주는 사람들과 해를 끼치는 사람들에게 질문하는 것이 중요합니다. 우리는 또한 그것이 누구에게 불이익을 주는지 살펴봐야 합니다. '정상적인' 사람이라는 생각을 강요함으로써 AI는 잠재적으로 '다른 사람들'을 위험에 빠뜨릴 수 있습니다. 

권력 관계, 형평성, 정의를 인정하지 않고 AI 데이터의 다양성을 논의하는 것은 더 큰 그림을 보여주지 못할 것입니다. AI 훈련 데이터의 다양성 범위와 인간과 AI가 함께 이 위기를 완화할 수 있는 방법을 완전히 이해하기 위해, Shaip의 엔지니어에게 연락하십시오.. 귀사의 AI 솔루션을 위한 역동적이고 다양한 데이터를 제공할 수 있는 다양한 AI 엔지니어를 보유하고 있습니다. 

사회 공유하기