ChatGPT의 어두운 면
최근 몇 달 동안 채팅 GPT가 화제가 되고 있습니다. Open이 발표한 인공지능(AI)입니다.AI는 2022년 11월 구축돼 인간다운 텍스트를 만들 수 있습니다.
ChatGPT는 우리가 알고 있는 세계의 다음 큰 혼란자로 알려져 있으며 언젠가 구글을 가장 많이 사용하는 검색 엔진으로 물리칠 수 있습니다.

Chat GPT에는 현재 무료 버전이 있으며 이용을 위해 다운로드할 필요가 없습니다. 챗봇에는 많은 가능성이 있습니다.시, 노래 가사, 컴퓨터 코드를 쓸 수 있으며 MBA 과정 시험에 합격할 수 있습니다.
사용자는 챗봇에게 질문할 수 있으며, Chat GPT가 훈련된 방대한 양의 온라인 데이터를 기반으로 응답이 생성됩니다. 채팅 GPT의 가능성과 가능성은 무한해 보이지만 검토할 만한 어두운 면도 있습니다.
채팅 GPT를 폭력적, 성차별적, 인종차별적이지 않게 하기 위해 오픈합니다.AI는 케냐인 노동자를 고용하여 1시간에 2달러 미만을 지불했습니다. 노동자들은 자신들의 경험에 대해 조사하기 위해 익명으로 TIME에 말했습니다.
노동자들은 유해한 내용을 인식할 수 있도록 데이터를 훈련하기 위해 유해한 텍스트와 이미지 필터링을 담당했습니다.
한 작업자는 OpenAI 텍스트를 읽고 라벨을 붙이는 동안 겪은 트라우마를 공유하며 텍스트 트라우마의 성질 때문에 '고문'이라고 설명했습니다.

세대형 AI 창출에서 간과되는 경우가 많은 요소는 저개발국 사람들의 노동력을 착취할 필요성입니다.
조이 부오람위니나 팀닛 게브르 같은 과학자들은 한동안 AI의 어두운 측면에 대해 경보를 울려왔습니다. Safiya Umoja Noble은 알고리즘 내의 바이어스에 대해 널리 쓰고 있으며, TikTok과 같은 소셜 미디어 웹 사이트는 플랫폼에 인화된 바이어스에 대해 호출되고 있습니다.
이러한 지식을 갖추고 AI 시스템 내 쏠림을 줄이기 위해 할 수 있는 일이 몇 가지 있습니다.
한 가지 접근법은 데이터의 정확성을 유지하는 데 도움이 되는 '데이터 사전 처리'입니다. 또 다른 선택지는 시스템이 '기밀 속성을 예측하는' 능력을 제한하기 위해 '공평성 제약'을 도입하는 것입니다. 이상적인 AI 시스템은 인간의 의사결정과 기술의 융합입니다.
AI 시스템을 활용할 때는 이러한 시스템이 어떻게 바이어스를 강화하는지, 어떤 방법으로 바이어스를 강화하는지 염두에 두는 것이 중요합니다. AI 시스템의 바이어스를 완화하기 위해 사용할 수 있는 프로세스도 고려해야 합니다.
AI와 관련된 윤리 문화를 촉진하는 것은 직장에서 사용되는 AI 시스템 내 편견에 대처하는 효과적인 전략이 될 수 있습니다.
여기에는 직장 성능 평가 프로세스를 업데이트하여 AI 시스템의 함정에 관한 투명성 향상뿐만 아니라 윤리적인 AI 프랙티스에 관한 섹션을 구현하는 것도 포함됩니다. 챗봇과 같은 AI 챗봇이 편향된 반응을 일으키는 것은 놀라운 일이 아닙니다.
그러나 AI 기술은 프로그래밍된 것과 그것에 대해 훈련된 것만을 반영하고 있습니다. 우리는 어떤 AI 시스템에서도 발생하는 응답에 정말 의지할 수 없을지도 모릅니다.
AI 시스템의 가능성은 무한하지만, 그것들은 소금을 조금 넣어 사용하고 그 잠재적 한계를 이해해야 합니다.
<참고 : The Dark Side Of ChatGPT>