ChatGPT의 새로운 연령 예측 시스템에서 사용자가 18세 미만이라고 의심되는 경우, 사용자의 신원 증명을 요청할 수 있습니다.

ChatGPT는 현재 사용자가 18세 미만인지 판별할 수 있는 자동 연령 감지 시스템을 개발 중입니다. 어떤 경우에는 사용자가 18세 미만인지 판별할 수 없을 때, 챗봇이 사용자에게 공식 신분증을 제공하도록 요청할 수 있습니다.

휴대폰의 ChatGPT 로고

ChatGPT를 개발한 회사인 OpenAI는 자녀 보호 도구를 개선하고 있으며, 16세 소년 아담 렌의 유명 사건으로 인해 점점 더 큰 압박을 받고 있습니다. ChatGPT가 그의 자살에 영향을 미쳤다고 주장하는 가족.

"ChatGPT는 13세 이상을 대상으로 합니다." CEO 샘 알트먼은 "청소년의 안전, 자유, 개인정보 보호"라는 제목의 블로그 게시물에서 설명했습니다.

그는 "우리는 사람들이 ChatGPT를 어떻게 사용하는지에 따라 나이를 추정하는 연령 예측 시스템을 구축하고 있습니다."라고 말했습니다. 썼다"의심스러운 부분이 있다면, 저희는 신중하게 접근하여 18세 미만 이용자에게만 서비스를 제공할 것입니다. 일부 국가나 상황에서는 신분증 제시를 요구할 수도 있습니다. 이는 성인의 개인정보 보호에 대한 양보라는 것을 알고 있지만, 그만한 가치가 있다고 생각합니다."

일부 경우 또는 국가에서는 신분증을 요구할 수도 있습니다. 이는 성인의 개인정보를 침해하는 행위라는 점을 알고 있지만, 그만한 가치가 있는 타협이라고 생각합니다.

OpenAI의 CEO인 샘 알트만

알트먼은 ChatGPT의 일부 응답 기능, 예를 들어 가벼운 채팅 응답이나 자해 관련 논의는 청소년에게 차단될 것이라고 설명합니다. 그는 회사가 청소년의 사생활과 자유보다 안전을 우선시할 것이며, 미성년자에게는 "상당한 보호"가 필요하다고 설명했습니다.

마지막으로, 그는 청소년이 챗봇에 자살 충동을 표현하면 챗봇이 부모에게 연락하여 경고를 보낼 것이라고 덧붙였습니다. 만약 부모가 연락이 되지 않으면, ChatGPT가 관계 당국에 연락을 시도할 것입니다.

"우리는 이러한 원칙들이 서로 상충되며, 모든 사람이 우리의 갈등 해결 방식에 동의하는 것은 아니라는 점을 알고 있습니다."라고 알트먼은 썼습니다. "어려운 결정이지만, 전문가들과 논의한 결과, 이것이 우리가 최선이라고 생각하는 바이며, 우리의 의도를 투명하게 밝히고 싶습니다."

신경과학자이자 장수 연구자인 Brian Ramos 박사 심플리 노오트로픽스Tom's Guide는 OpenAI가 올바른 결정을 내리고 있다고 말합니다.

그는 이메일을 통해 "저는 장수와 전인적 웰빙을 전문으로 하는 신경과학자로서 연령 예측 시스템이나 보호자 관리와 같은 안전장치를 환영합니다."라고 말했습니다.

십 대의 뇌는 아직 발달 중이기 때문에 인공지능의 이점과 위험 모두에 더 취약합니다. ChatGPT는 가볍고 편안한 치유적 대화를 위한 유용한 도구가 될 수 있으며, 스트레스 해소, 명상, 그리고 건강한 습관 형성에도 도움이 됩니다.

하지만 심각한 심리적 어려움, 특히 자해나 트라우마와 관련된 경우에는 항상 전문가와 상담해야 합니다. 기술은 진정한 치료를 보조할 수는 있지만, 결코 대체해서는 안 됩니다.

ChatGPT 자녀 보호 기능 – 다음은 무엇입니까?

어머니가 그녀 뒤에 서 있는 동안 소파에 앉아 휴대전화를 보는 십대 소녀

곧 출시될 ChatGPT 자녀 보호 기능을 통해 부모는 자신의 계정을 청소년 자녀의 계정과 연결할 수 있습니다.

이를 통해 부모는 자녀를 대신하여 플랫폼을 사용할 수 없는 "차단 시간"을 설정하거나 채팅 기록을 비활성화하는 등의 설정을 구현할 수 있습니다. 계정을 연결함으로써 ChatGPT는 자녀와의 상호작용에서 우려스럽거나 잠재적으로 유해한 행동의 징후를 감지할 경우 부모에게 알릴 수도 있습니다.

댓글이 닫혔습니다.