
인공지능의 부상: 의미와 발전
인공 지능(AI)이 주목을 받으며 미국의 ChatGPT와 중국의 DeepSeek와 같은 대규모 언어 모델(LLM) 챗봇의 엄청난 인기에 따라 전 세계의 주목을 받고 있습니다.이는 주식 시장에 큰 영향을 미쳤습니다.이러한 새로운 관심은 다양한 산업, 특히 “인공 지능”이라는 용어에 익숙하지 않은 개인에게 AI가 미치는 영향에 대한 적절한 질문을 제기합니다.
AI 기술을 둘러싼 우려
AI가 제공하는 이점에도 불구하고 무시할 수 없는 고유한 위험이 있습니다.잘못된 정보, 개인 정보 침해, 기술에 대한 과도한 의존, 잠재적인 군사적 응용과 같은 문제는 심각한 우려를 제기합니다.이러한 위험을 완화할 책임은 전적으로 AI 선구자와 산업 리더에게 있습니다.
책임 있는 AI에 대한 Google의 약속
이러한 과제에 대응하여 Google은 AI 개발 분야에서 안전을 지속적으로 우선시했습니다.지난 6년 동안 이 회사는 연례 “책임 있는 AI 진행 보고서”를 발행했습니다.가장 최근에는 AI 안전을 강화하기 위한 지속적인 노력을 설명하는 문서인 2024 진행 보고서 를 발표했습니다.
최신 보고서의 중요한 업데이트 중 하나는 Google의 Frontier Safety Framework 수정입니다. Google DeepMind에서 시작한 이 프레임워크는 고급 AI 시스템에 연결된 잠재적 위험을 사전에 식별하고 해결하는 것을 목표로 합니다.몇 가지 주요 개선 사항은 다음과 같습니다.
- 보안 강화를 위한 권장 사항 : 데이터 침해에 대비하여 보안 조치를 강화하기 위한 전략을 제안합니다.
- 배포 완화 절차 : 강력한 AI 기능의 오용을 방지하기 위한 지침 수립.
- 기만적 정렬 위험 : 인간의 감독을 조작할 수 있는 자율 시스템으로 인한 위협에 대처합니다.
AI 개발의 민주적 리더십
Google은 안전 프로토콜을 업데이트하는 것과 함께 민주주의가 AI 기술 개발을 선도해야 한다는 입장을 재확인했으며, 자유, 평등, 인권 존중과 같은 가치를 강조했습니다.이 회사는 또한 2018년에 처음 발표된 원래 AI 원칙에 대한 개정안을 발표했습니다.
Google의 AI 원칙 변경
AI 원칙 페이지 를 방문하면 무기에 AI를 사용하는 것에 대한 주목할 만한 누락이 드러납니다.2024년 2월 22일의 보관된 버전 페이지에는 해를 끼치도록 설계된 AI 기술을 만들거나 배치하지 않겠다는 약속이 포함되었습니다.
사람에게 부상을 입히거나 직접적으로 부상을 용이하게 하는 것을 주된 목적으로 하거나 실행하는 무기나 기타 기술.
그러나 이러한 공약은 개정된 원칙에서는 생략되었으며, 이제 다음 세 가지 핵심 원칙에 집중합니다.
- 대담한 혁신 : 당사의 목표는 개인에게 힘을 실어 주고 다양한 분야에서 발전을 촉진하며 경제적, 사회적 복지를 향상시키는 AI 기술을 개발하는 것입니다.
- 책임 있는 개발 및 배포 : AI의 혁신적 특성을 인식하고 엄격한 테스트와 윤리적 고려를 통해 안전한 개발 및 구현을 보장하기 위해 최선을 다하고 있습니다.
- 협력적 진보, 함께 : 우리는 파트너십을 중시하며 다른 사람들이 AI를 활용하여 긍정적인 결과를 얻을 수 있도록 하는 기술을 만드는 데 전념합니다.
직원의 우려와 윤리적 고려 사항
흥미롭게도, 구글은 군사적 목적으로 AI를 사용하는 것에 대한 이전 약속을 철회한 것에 대해 아직 언급하지 않았으며, 이 결정은 직원들의 상당한 반발에 부딪혔습니다.2018년에 약 4, 000명의 직원이 드론 이미지를 분석하기 위해 AI를 활용한 Project Maven이라는 미 국방부와의 회사 계약을 종료해 줄 것을 요청하는 청원에 서명했습니다.
최근 구글 딥마인드 직원들은 비슷한 우려를 표명하며, 이 기술 회사가 군 기관과의 관계를 끊을 것을 촉구했습니다.이 행동 촉구는 회사의 AI 원칙을 언급하며, 이러한 관계가 군사 기술 개발을 자제하겠다는 이전 약속과 상충된다고 주장했습니다.
자세히 알아보려면 Depositphotos.com을 방문하세요.
답글 남기기