[이데일리 김카니 기자] 소셜미디어 기업 메타(META)는 청소년 안전 문제를 둘러싼 우려가 커지자 인공지능(AI) 챗봇 운영정책을 한시적으로 변경한다고 29일(현지시간) 밝혔다.
CNBC에 따르면 메타는 앞으로 페이스북 및 인스타그램 등에서 10대 사용자가 자해, 자살, 섭식장애 등 민감한 주제에 대해 챗봇 답변을 받지 못하도록 제한하고, 관련 상황에서는 전문가 도움을 안내하도록 설정을 강화한다.
또 교육과 기술 습득용 챗봇만 접근 가능하도록 단계적으로 조치를 확대할 예정이다.
회사 측은 “젊은 사용자의 AI 활용 방식을 지속적으로 학습하고 있으며 이에맞춰 보호 장치를 강화하고 있다”고 설명했다. 이번 조치는 영어권 국가 앱에서 수주 내 적용될 예정이다.
한편 이날 정규장에서 메타 주가는 전일대비 1.65% 내린 738.70달러에 마감했다. 이후 시간외거래에서는 종가대비 0.09% 추가 하락한 738.00달러를 기록하고 있다.
![장관까지 나선 '삼성 총파업'…韓 노사관계 골든타임[노동TALK]](https://image.edaily.co.kr/images/vision/files/NP/S/2026/05/PS26051600079t.jpg)

![[그해 오늘] 성실했던 우리 선생님이… 살해범이 된 日남성](https://image.edaily.co.kr/images/vision/files/NP/S/2026/05/PS26051600001t.jpg)
![아이에게 막말하는 전남편, 면접교섭 막을 수 있나요[양친소]](https://image.edaily.co.kr/images/vision/files/NP/S/2026/05/PS26051600047t.jpg)
!['광주 고교생 살해', '묻지마' 아닌 계획범죄였다[사사건건]](https://image.edaily.co.kr/images/vision/files/NP/S/2026/05/PS26051600106t.jpg)