소프트웨어(SW) 기술자 인건비 산정 기준이 단순 '평균 임금'에서 개인의 실제 '직무 역량' 중심으로 개편된다. 그동안 SW 사업 대가 산정의 고질적 문제로 지적돼 온 경직된 단가 적용 관행이 해소될지 주목된다.
한국인공지능·소프트웨어산업협회(KOSA)는 SK AX와 공동으로 'IT 분야 직무역량체계(ITSQF) 기반 직무 수준 진단 체계'를 개발해 발표했다.
이번 체계는 기술자 개인의 역량을 객관적 데이터로 산출, 이를 기반으로 합리적인 인건비와 사업비를 책정할 수 있도록 설계됐다.
새 진단 체계는 △기초역량 △기술역량 △현장직무역량 △추가역량 등 4대 영역을 종합 평가한다. 적용 대상은 응용SW개발, 인공지능SW개발 등 현장 수요가 높은 25개 핵심 직무다. 개발 과정에는 학계와 직무 전문가가 참여했고, 현업 기술자 대상 파일럿 테스트를 거쳐 현장 적용성을 검증했다.
발주기관과 사업자는 객관적 역량 데이터를 근거로 합리적인 대가 협상이 가능해진다. 기업은 근거 있는 비용을 청구할 수 있고, 기술자는 본인의 역량에 맞는 공정한 대우를 받을 길이 열렸다.
정부가 국가·공공기관이 인공지능(AI) 시스템 도입 시 고려해야 하는 보안 사항을 담은 가이드라인을 발표한다.
가이드라인은 생성형 AI부터 피지컬 AI, AI에이전트 등 다양한 AI를 다루며 도입 시 위험 모델과 대응 방안을 제시한다.
30일 정보보호산업계 등에 따르면, 국가정보원 국가인공지능안보센터가 최근 국가·공공기관의 AI 시스템 도입을 위한 가이드라인 초안을 제작했다. 앞서 국정원은 챗GPT 등 생성형 AI 열풍이 일자 공공분야의 생성형 AI 활용 보안 가이드라인을 2023년 6월 발표한 바 있다.
올해 2월 공식 운영에 들어간 국가인공지능안보센터는 AI 관련 안보 위협에 선제적으로 대응하기 위한 곳으로, 국가·공공분야 AI 도입·활용 관련 보안정책 수립은 물론 AI 안보 위협 대응기술 개발, AI 위협정보 수집·분석·대응 등을 주요 업무로 한다.
지난 25일 시범 가동에 들어간 '범정부 AI 공통기반' 서비스에 대해서 공무원들은 답변 품질을 높이는데 주력해야 한다는 반응을 보였다.
정부는 내년 3월 서비스 본격 개시 전까지 이용자 의견을 최대한 취합·반영해 서비스 완성도를 높일 방침이다.
26일 행정안전부가 전 부처와 지방자치단체 공무원(총 50만명) 대상으로 범정부 AI 공통기반 서비스를 가동한지 만 하루가 지난 가운데 안정적으로 서비스가 제공 중이다.
범정부 AI 공통기반은 민간의 다양한 AI 모델, 학습데이터, 그래픽처리장치(GPU) 등을 보안 우려 없이 중앙·지방정부가 공동 활용할 수 있는 서비스다. 올 상반기 사업자(삼성SDS컨소시엄)를 선정, 시스템 구축 후 지난 25일부터 시범 서비스가 진행됐다.
첫 날 우려했던 접속 문제는 거의 발생하지 않은 것으로 확인됐다.
행안부 관계자는 “25일 서비스 첫 날 이용을 위해 가입한 공무원 수가 5000여명 정도였다”며 “서비스는 원활하게 제공됐고 GPU 등 인프라 부족 문제도 없었다”고 말했다.
정부는 공무원이 자체 AI 서비스를 만들도록 총 22종의 AI 모델(닫기거대언어모델 (LLM : Large Language Model): 대용량의 인간 언어를 이해하고 생성할 수 있도록 훈련된 인공지능(AI) 모델상세보기▶LLM 등)을 제공하는 한편, '챗 GPT'처럼 챗서비스 2종(삼성SDS, 네이버클라우드)을 지원했다.
캡제미니 리서치 인스티튜트가 조사한 내용에 따르면, 공공부문 조직의 90%가 앞으로 2~3년 안에 'AI 에이전트'를 도입할 계획인 것으로 나타났다. AI 에이전트란 스스로 판단하고 행동하는 지능형 프로그램을 말한다. 하지만 아직 이 기술은 복잡하고 실험적인 단계가 많아 현장 적용이 쉽지 않다. 캡제미니는 리포트를 발표해 기술 책임자들이 이러한 복잡성을 헤쳐나갈 수 있도록 실질적인 안내와 구조 설명을 담았다.
단순 자동화를 넘어 스스로 생각하는 AI 시스템
자동화, 인공지능, 자율 에이전트가 만나면 어떤 일이 벌어질까. 먼저 자동화는 미리 정해진 규칙대로 사람 손 없이 일을 처리하는 시스템이다. 여기에 AI가 더해지면 데이터에서 배우고 패턴을 찾아내며 데이터를 보고 결정을 내릴 수 있게 된다. AI 에이전트는 한 단계 더 나아간다. 단순히 일을 처리하는 것을 넘어 상황 정보를 활용해 스스로 행동 방식을 선택하고 결과를 개선하도록 설계된다.
이 세 가지가 함께 작동할 때 업무 방식이 단순히 반복되는 게 아니라 진화한다. 배우고, 적응하고, 끊임없이 나아진다. 특히 인력 부족과 업무 증가로 어려움을 겪는 공공부문에서 이런 변화는 매우 중요하다.
사람 말뿐 아니라 컴퓨터 언어도 이해하는 AI
여기서 말하는 '언어'는 우리가 일상에서 쓰는 한국어나 영어만을 뜻하지 않는다. 프로그램 코드, 데이터베이스 명령어, 시스템 제어 신호 같은 것들도 모두 언어다. 진짜 자동화가 이뤄지려면 언어 자체보다 언어와 데이터, 상황 파악 능력이 함께 작동해야 한다.
마이크로소프트의 애저 오픈AI 서비스, 오픈AI의 GPT-5, 구글 제미나이, 아마존 베드록, 미스트랄 AI 같은 대규모 언어 모델들은 사람의 말만 이해하는 게 아니다. 프로그래밍 코드, 데이터베이스 검색 명령, API 호출 같은 것들도 똑같이 이해할 수 있다. 모델이 사람 언어뿐 아니라 기계 언어로도 소통할 수 있을 때, 할 수 있는 일의 범위가 엄청나게 넓어진다. 단순히 글을 쓰거나 대화하는 것을 넘어 시스템을 제어하고, 업무를 시작시키고, 데이터를 분석하고, 실시간으로 결정을 내릴 수 있게 된다.
인공지능 언어모델들이 서로 협력할 때 텍스트 메시지 대신 '생각'을 직접 교환하는 새로운 방법이 개발됐다. 중국 칭화대학교와 인피니전스 AI 연구팀은 여러 AI 모델이 함께 일할 때 텍스트로 대화하는 기존 방식의 한계를 넘어서는 '캐시-투-캐시(C2C)' 기술을 선보였다.
텍스트 대화의 문제점… 정보 손실되고 시간도 오래 걸려
연구 논문에 따르면, 현재 여러 AI 모델이 협업할 때는 사람처럼 텍스트로 대화한다. 한 모델이 분석한 내용을 문장으로 만들어 다른 모델에게 전달하는 식이다. 하지만 이 과정에는 문제가 있다. AI가 머릿속에서 이해한 복잡한 내용을 단순한 텍스트로 바꾸면서 많은 정보가 사라진다. 게다가 단어를 하나하나 생성해야 하므로 시간도 오래 걸린다.
연구팀은 이런 문제를 해결하기 위해 'KV 캐시'라는 것을 활용하는 방법을 제안했다. KV 캐시는 AI가 문장을 이해할 때 머릿속에 저장하는 일종의 메모장이다. 이 메모장에는 단순한 텍스트보다 훨씬 풍부한 의미 정보가 담겨 있다. 마치 사람이 책을 읽으면서 머릿속에 떠오르는 이미지나 감정처럼, AI도 텍스트를 넘어서는 깊은 이해를 이 캐시에 저장한다.
연구팀은 실험을 통해 이 아이디어가 실제로 효과가 있는지 확인했다. 같은 길이의 질문이라도 캐시에 담긴 정보가 더 풍부하면 AI가 더 정확하게 답한다는 것을 발견했다. 예를 들어 퓨샷(few-shot) 방식으로 예시를 먼저 보여준 뒤, 질문 부분의 캐시만 사용하도록 했더니 일반적인 방식보다 정확도가 3.92% 높아졌다.
신경망으로 AI의 '생각'을 번역해 전달
C2C 시스템의 핵심은 한 AI의 캐시를 다른 AI가 이해할 수 있는 형태로 바꿔주는 '캐시 퓨저'라는 장치다. 이는 마치 통역사처럼 한 AI의 생각을 다른 AI의 언어로 번역해준다. 캐시 퓨저는 세 가지 부품으로 구성된다. 첫째, 두 AI의 캐시를 연결해서 변환하는 '프로젝션 모듈'이다. 둘째, 상황에 따라 전달할 정보의 양을 조절하는 '동적 가중치 모듈'이다. 셋째, 각 단계에서 정보를 받아들일지 말지 결정하는 '게이트'다. 게이트는 학습을 통해 어떤 단계에서 다른 AI의 도움이 필요한지 스스로 판단한다.
범용 인공지능(AGI)이 예상보다 훨씬 이른 오는 2028년 말 도달 가능하다는 구체적인 로드맵이 제시돼 학계와 산업계의 이목이 집중된다.
2일 업계에 따르면 아담 코자 AI안전센터(CAIS) 연구원과 댄 헨드릭스 등 33명의 공동 저자는 'AGI의 정의'라는 새 논문을 발표했다. 이들은 인간의 지능이 어떻게 구성되어 있는지를 설명하는 가장 권위 있고 널리 사용되는 심리학 이론인 캐텔-혼-캐롤(CHC) 이론에 기반해 10가지 광범위한 능력으로 AGI를 정의하는 프레임워크를 공개했다.
이 프레임워크를 적용한 결과 오픈AI의 GPT-4는 27%, GPT-5는 57%의 'AGI 점수'를 받았다. GPT-5는 이미지 및 오디오 지원, 컨텍스트 창 확장, 수학 능력에서 크게 개선됐지만 AGI 기준에는 절반 수준에 그쳤다.
하버드 비즈니스 리뷰는 기업들이 생성형 AI 도입 시 기술의 완성도보다 전략적 활용 방안의 명확성이 중요하다고 분석했다. 생성형 AI의 지능 수준이나 발전 속도에 집중하기보다는, 현재 수준에서도 어떻게 경쟁 우위를 확보할 수 있는지에 초점을 맞춰야 한다는 것이다.
뉴욕대학교 스턴 경영대학원의 바라트 아난드(Bharat N. Anand) 학장과 하버드 비즈니스 스쿨의 앤디 우(Andy Wu) 교수는 생성형 AI를 전략적으로 활용하기 위한 실용적 프레임워크를 제시했다. 이들은 수백 명의 관리자들과 함께 작업하고 직접 생성형 AI 이니셔티브를 이끌며 디지털 전환과 전략을 연구한 경험을 바탕으로, 단순히 빠르게 도입하는 것이 아니라 경쟁사와 차별화된 방식으로 생성형 AI를 적용해야 한다고 강조했다.
기사 제목 처럼 공공 정보화 관련 전문인력 양성이 어려운 문제를 잘 지적한 기사이네요. 단지 보안분야만 해당되지 않고 정보화 사업 전반적인 구조적 문제점이라 근보적인 대책 마련이 필요합니다.
- 기사 내용 -
사이버 위협이 갈수록 커지는 가운데 민간 사이버 보안을 책임지는 한국인터넷진흥원(KISA)의 침해사고 대응 전문성이 도마 위에 올랐다. 순환보직 탓에 전문성을 키우기 어려운 구조 때문이다.
15일 KISA가 박충권 국민의힘 의원실에 제출한 자료에 따르면, KISA 디지털위협대응본부의 위협분석단 56명 가운데 부서 배치를 받은 지 2년이 채 안 되는 인원이 38명에 달한다. 이 가운데 올해 배치된 단원은 21명으로, 전체 3분의 1 이상이 신규 인원이다. 또 지난해 위협분석단에 들어온 인원은 14명이며, 나머지 3명은 2023년 12월 1일 위협분석단 소속이 됐다.
위협분석단은 KISA의 핵심 부서로 통한다. 민간기업에서 사이버 침해사고가 발생하면 원인을 분석하고 재발방지 대책 마련을 지원하는 업무를 담당한다. 하루가 멀다하고 크고 작은 사이버 보안 사고가 발생하는 상황에서 위협분석단 인원 절반 이상이 업무 경력이 짧아 전문성에 의구심이 드는 건 아쉬운 대목일 수밖에 없다.
침해사고가 발생한 기업의 현장을 찾아 기술지원을 하는 포렌식팀 인원의 경력을 살펴봐도 역량에 물음표가 생긴다. 팀 업무를 총괄하는 팀장을 제외한 '침해사고 원인분석 및 재발방지 지원' 업무를 맡은 팀원 23명 가운데 16명이 해당 업무 경력이 2년이 안 된다. 포렌식팀은 상황관제 등 KISA 내부에서 업무하는 다른 부서와 달리 침해사고 현장에 출동하는 팀으로, 침해사고 대응의 중요한 역할을 하고 있다.
이러한 상황에서 위협분석단에서만 11년 넘게 재직한 A직원이 올해 퇴사했으며, 지난해에도 9년 넘게 몸담은 B직원이 KISA를 떠났다.
KISA 내부 사정에 정통한 정보보호산업계 관계자는 “보안 사고대응 업무는 전문성을 요구하다 보니 KISA가 특정 인원은 순환보직에서 제외해 장기간 업무를 수행할 수 있는 제도를 운영했다”며 “하지만 최근 이 제도가 유명무실해졌고 큰 폭으로 인사가 이뤄져 민간으로 자리를 옮긴 침해 대응 인력이 상당수”라고 귀띔했다.
중앙부처와 지방자치단체 공무원 10명 중 7명은 실제 업무에 인공지능(AI)을 활용한 경험이 있는 것으로 집계됐다.
행정기관이 작성하는 문서의 90% 이상이 AI가 읽기 어려운 포맷으로 작성되고 있는 것으로 나타났다.
위성곤 더불어민주당 의원실이 13일 공개한 '공공분야 AI 활용 현황' 설문조사 결과에 따르면, 전국 행정기관 종사자 1만4208명 중 91.1%가 보고서·계획서 등 행정문서를 주로 HWP(한글)나 이미지·스캔 PDF 등 AI가 인식하기 어려운 형식으로 작성하고 있다고 답했다.
이번 조사는 지난달 17일부터 이달 6일까지 중앙부처, 광역·기초지자체 공무원을 대상으로 실시됐다.
전체 응답자의 68.9%는 챗GPT, 클로드, 코파일럿, 제미나이, 하이퍼클로바X 등 생성형 AI를 실제 업무에 활용한 경험이 있다고 답했다.
그러나 인터넷망 등 외부 개방망을 통한 사용 비율이 높아 정보 유출 우려도 제기됐다. AI를 사용하는 공무원 1만2738명 중 인터넷망(개방형 망)에서 사용한다는 응답은 54.5%로 절반을 넘었다.
인터넷망과 업무망을 병행한다는 응답(12.9%)까지 포함하면 외부망 활용 비율은 67.5%에 달했다.
소프트웨어(SW) 기술자 인건비 산정 기준이 단순 '평균 임금'에서 개인의 실제 '직무 역량' 중심으로 개편된다. 그동안 SW 사업 대가 산정의 고질적 문제로 지적돼 온 경직된 단가 적용 관행이 해소될지 주목된다.
한국인공지능·소프트웨어산업협회(KOSA)는 SK AX와 공동으로 'IT 분야 직무역량체계(ITSQF) 기반 직무 수준 진단 체계'를 개발해 발표했다.
이번 체계는 기술자 개인의 역량을 객관적 데이터로 산출, 이를 기반으로 합리적인 인건비와 사업비를 책정할 수 있도록 설계됐다.
새 진단 체계는 △기초역량 △기술역량 △현장직무역량 △추가역량 등 4대 영역을 종합 평가한다. 적용 대상은 응용SW개발, 인공지능SW개발 등 현장 수요가 높은 25개 핵심 직무다. 개발 과정에는 학계와 직무 전문가가 참여했고, 현업 기술자 대상 파일럿 테스트를 거쳐 현장 적용성을 검증했다.
발주기관과 사업자는 객관적 역량 데이터를 근거로 합리적인 대가 협상이 가능해진다. 기업은 근거 있는 비용을 청구할 수 있고, 기술자는 본인의 역량에 맞는 공정한 대우를 받을 길이 열렸다.
관련기사링크 : https://www.etnews.com/20251128000043
정부가 국가·공공기관이 인공지능(AI) 시스템 도입 시 고려해야 하는 보안 사항을 담은 가이드라인을 발표한다.
가이드라인은 생성형 AI부터 피지컬 AI, AI에이전트 등 다양한 AI를 다루며 도입 시 위험 모델과 대응 방안을 제시한다.
30일 정보보호산업계 등에 따르면, 국가정보원 국가인공지능안보센터가 최근 국가·공공기관의 AI 시스템 도입을 위한 가이드라인 초안을 제작했다. 앞서 국정원은 챗GPT 등 생성형 AI 열풍이 일자 공공분야의 생성형 AI 활용 보안 가이드라인을 2023년 6월 발표한 바 있다.
올해 2월 공식 운영에 들어간 국가인공지능안보센터는 AI 관련 안보 위협에 선제적으로 대응하기 위한 곳으로, 국가·공공분야 AI 도입·활용 관련 보안정책 수립은 물론 AI 안보 위협 대응기술 개발, AI 위협정보 수집·분석·대응 등을 주요 업무로 한다.
관련기사링크 : https://www.etnews.com/20251128000167
지난 25일 시범 가동에 들어간 '범정부 AI 공통기반' 서비스에 대해서 공무원들은 답변 품질을 높이는데 주력해야 한다는 반응을 보였다.
정부는 내년 3월 서비스 본격 개시 전까지 이용자 의견을 최대한 취합·반영해 서비스 완성도를 높일 방침이다.
26일 행정안전부가 전 부처와 지방자치단체 공무원(총 50만명) 대상으로 범정부 AI 공통기반 서비스를 가동한지 만 하루가 지난 가운데 안정적으로 서비스가 제공 중이다.
범정부 AI 공통기반은 민간의 다양한 AI 모델, 학습데이터, 그래픽처리장치(GPU) 등을 보안 우려 없이 중앙·지방정부가 공동 활용할 수 있는 서비스다. 올 상반기 사업자(삼성SDS컨소시엄)를 선정, 시스템 구축 후 지난 25일부터 시범 서비스가 진행됐다.
첫 날 우려했던 접속 문제는 거의 발생하지 않은 것으로 확인됐다.
행안부 관계자는 “25일 서비스 첫 날 이용을 위해 가입한 공무원 수가 5000여명 정도였다”며 “서비스는 원활하게 제공됐고 GPU 등 인프라 부족 문제도 없었다”고 말했다.
정부는 공무원이 자체 AI 서비스를 만들도록 총 22종의 AI 모델(닫기거대언어모델 (LLM : Large Language Model): 대용량의 인간 언어를 이해하고 생성할 수 있도록 훈련된 인공지능(AI) 모델상세보기▶LLM 등)을 제공하는 한편, '챗 GPT'처럼 챗서비스 2종(삼성SDS, 네이버클라우드)을 지원했다.
관련기사링크 : https://www.etnews.com/20251126000281
캡제미니 리서치 인스티튜트가 조사한 내용에 따르면, 공공부문 조직의 90%가 앞으로 2~3년 안에 'AI 에이전트'를 도입할 계획인 것으로 나타났다. AI 에이전트란 스스로 판단하고 행동하는 지능형 프로그램을 말한다. 하지만 아직 이 기술은 복잡하고 실험적인 단계가 많아 현장 적용이 쉽지 않다. 캡제미니는 리포트를 발표해 기술 책임자들이 이러한 복잡성을 헤쳐나갈 수 있도록 실질적인 안내와 구조 설명을 담았다.
단순 자동화를 넘어 스스로 생각하는 AI 시스템
자동화, 인공지능, 자율 에이전트가 만나면 어떤 일이 벌어질까. 먼저 자동화는 미리 정해진 규칙대로 사람 손 없이 일을 처리하는 시스템이다. 여기에 AI가 더해지면 데이터에서 배우고 패턴을 찾아내며 데이터를 보고 결정을 내릴 수 있게 된다. AI 에이전트는 한 단계 더 나아간다. 단순히 일을 처리하는 것을 넘어 상황 정보를 활용해 스스로 행동 방식을 선택하고 결과를 개선하도록 설계된다.
이 세 가지가 함께 작동할 때 업무 방식이 단순히 반복되는 게 아니라 진화한다. 배우고, 적응하고, 끊임없이 나아진다. 특히 인력 부족과 업무 증가로 어려움을 겪는 공공부문에서 이런 변화는 매우 중요하다.
사람 말뿐 아니라 컴퓨터 언어도 이해하는 AI
여기서 말하는 '언어'는 우리가 일상에서 쓰는 한국어나 영어만을 뜻하지 않는다. 프로그램 코드, 데이터베이스 명령어, 시스템 제어 신호 같은 것들도 모두 언어다. 진짜 자동화가 이뤄지려면 언어 자체보다 언어와 데이터, 상황 파악 능력이 함께 작동해야 한다.
마이크로소프트의 애저 오픈AI 서비스, 오픈AI의 GPT-5, 구글 제미나이, 아마존 베드록, 미스트랄 AI 같은 대규모 언어 모델들은 사람의 말만 이해하는 게 아니다. 프로그래밍 코드, 데이터베이스 검색 명령, API 호출 같은 것들도 똑같이 이해할 수 있다. 모델이 사람 언어뿐 아니라 기계 언어로도 소통할 수 있을 때, 할 수 있는 일의 범위가 엄청나게 넓어진다. 단순히 글을 쓰거나 대화하는 것을 넘어 시스템을 제어하고, 업무를 시작시키고, 데이터를 분석하고, 실시간으로 결정을 내릴 수 있게 된다.
관련기사링크 : https://zdnet.co.kr/view/?no=20251112193111
인공지능 언어모델들이 서로 협력할 때 텍스트 메시지 대신 '생각'을 직접 교환하는 새로운 방법이 개발됐다. 중국 칭화대학교와 인피니전스 AI 연구팀은 여러 AI 모델이 함께 일할 때 텍스트로 대화하는 기존 방식의 한계를 넘어서는 '캐시-투-캐시(C2C)' 기술을 선보였다.
텍스트 대화의 문제점… 정보 손실되고 시간도 오래 걸려
연구 논문에 따르면, 현재 여러 AI 모델이 협업할 때는 사람처럼 텍스트로 대화한다. 한 모델이 분석한 내용을 문장으로 만들어 다른 모델에게 전달하는 식이다. 하지만 이 과정에는 문제가 있다. AI가 머릿속에서 이해한 복잡한 내용을 단순한 텍스트로 바꾸면서 많은 정보가 사라진다. 게다가 단어를 하나하나 생성해야 하므로 시간도 오래 걸린다.
연구팀은 이런 문제를 해결하기 위해 'KV 캐시'라는 것을 활용하는 방법을 제안했다. KV 캐시는 AI가 문장을 이해할 때 머릿속에 저장하는 일종의 메모장이다. 이 메모장에는 단순한 텍스트보다 훨씬 풍부한 의미 정보가 담겨 있다. 마치 사람이 책을 읽으면서 머릿속에 떠오르는 이미지나 감정처럼, AI도 텍스트를 넘어서는 깊은 이해를 이 캐시에 저장한다.
연구팀은 실험을 통해 이 아이디어가 실제로 효과가 있는지 확인했다. 같은 길이의 질문이라도 캐시에 담긴 정보가 더 풍부하면 AI가 더 정확하게 답한다는 것을 발견했다. 예를 들어 퓨샷(few-shot) 방식으로 예시를 먼저 보여준 뒤, 질문 부분의 캐시만 사용하도록 했더니 일반적인 방식보다 정확도가 3.92% 높아졌다.
신경망으로 AI의 '생각'을 번역해 전달
C2C 시스템의 핵심은 한 AI의 캐시를 다른 AI가 이해할 수 있는 형태로 바꿔주는 '캐시 퓨저'라는 장치다. 이는 마치 통역사처럼 한 AI의 생각을 다른 AI의 언어로 번역해준다. 캐시 퓨저는 세 가지 부품으로 구성된다. 첫째, 두 AI의 캐시를 연결해서 변환하는 '프로젝션 모듈'이다. 둘째, 상황에 따라 전달할 정보의 양을 조절하는 '동적 가중치 모듈'이다. 셋째, 각 단계에서 정보를 받아들일지 말지 결정하는 '게이트'다. 게이트는 학습을 통해 어떤 단계에서 다른 AI의 도움이 필요한지 스스로 판단한다.
관련뉴스링크 : https://zdnet.co.kr/view/?no=20251105172055
범용 인공지능(AGI)이 예상보다 훨씬 이른 오는 2028년 말 도달 가능하다는 구체적인 로드맵이 제시돼 학계와 산업계의 이목이 집중된다.
2일 업계에 따르면 아담 코자 AI안전센터(CAIS) 연구원과 댄 헨드릭스 등 33명의 공동 저자는 'AGI의 정의'라는 새 논문을 발표했다. 이들은 인간의 지능이 어떻게 구성되어 있는지를 설명하는 가장 권위 있고 널리 사용되는 심리학 이론인 캐텔-혼-캐롤(CHC) 이론에 기반해 10가지 광범위한 능력으로 AGI를 정의하는 프레임워크를 공개했다.
이 프레임워크를 적용한 결과 오픈AI의 GPT-4는 27%, GPT-5는 57%의 'AGI 점수'를 받았다. GPT-5는 이미지 및 오디오 지원, 컨텍스트 창 확장, 수학 능력에서 크게 개선됐지만 AGI 기준에는 절반 수준에 그쳤다.
관련기사링크 : https://zdnet.co.kr/view/?no=20251101202942
국가정보자원관리원(국정자원) 화재가 발생한 지 한 달이 지난 가운데 공공부터 민간 기업까지 다양한 분야에서 재해복구(DR) 체계 도입 확산 조짐이 불고 있다.
2일 관련 업계에 따르면, 지난 10월 한 달간 공공을 비롯해 제조·이커머스(쇼핑몰) 등 다양한 업계에서 DR 관련 문의가 증가했다.
전자신문이 국내 주요 국내 주요 IT서비스·클라우드 기업 10여곳에 문의한 결과 업체당 화재 이전 대비 DR 관련 문의가 최소 두 배 이상 늘었다.
한 클라우드 기업관계자는 “DR 관련 문의나 실제 도입하려는 움직임이 화재 이전 대비 10배 이상 폭발적으로 증가했다”고 말했다.
그는 “쇼핑몰, 온라인 게임 등 서비스 중단 시 고객 이탈과 매출 손실이 즉각적으로 발생하는 개인간거래(B2C) 중심의 민간 기업에서 문의가 많이 늘었다”며 “전 산업 분야에 걸쳐 DR 시스템 재점검의 필요성이 높아졌음을 확인하고 있다”고 전했다.
관련기사링크 : https://www.etnews.com/20251031000223
하버드 비즈니스 리뷰는 기업들이 생성형 AI 도입 시 기술의 완성도보다 전략적 활용 방안의 명확성이 중요하다고 분석했다. 생성형 AI의 지능 수준이나 발전 속도에 집중하기보다는, 현재 수준에서도 어떻게 경쟁 우위를 확보할 수 있는지에 초점을 맞춰야 한다는 것이다.
뉴욕대학교 스턴 경영대학원의 바라트 아난드(Bharat N. Anand) 학장과 하버드 비즈니스 스쿨의 앤디 우(Andy Wu) 교수는 생성형 AI를 전략적으로 활용하기 위한 실용적 프레임워크를 제시했다. 이들은 수백 명의 관리자들과 함께 작업하고 직접 생성형 AI 이니셔티브를 이끌며 디지털 전환과 전략을 연구한 경험을 바탕으로, 단순히 빠르게 도입하는 것이 아니라 경쟁사와 차별화된 방식으로 생성형 AI를 적용해야 한다고 강조했다.
관련기사링크 : https://www.etnews.com/20251015000311
기사 제목 처럼 공공 정보화 관련 전문인력 양성이 어려운 문제를 잘 지적한 기사이네요. 단지 보안분야만 해당되지 않고 정보화 사업 전반적인 구조적 문제점이라 근보적인 대책 마련이 필요합니다.
- 기사 내용 -
사이버 위협이 갈수록 커지는 가운데 민간 사이버 보안을 책임지는 한국인터넷진흥원(KISA)의 침해사고 대응 전문성이 도마 위에 올랐다. 순환보직 탓에 전문성을 키우기 어려운 구조 때문이다.
15일 KISA가 박충권 국민의힘 의원실에 제출한 자료에 따르면, KISA 디지털위협대응본부의 위협분석단 56명 가운데 부서 배치를 받은 지 2년이 채 안 되는 인원이 38명에 달한다. 이 가운데 올해 배치된 단원은 21명으로, 전체 3분의 1 이상이 신규 인원이다. 또 지난해 위협분석단에 들어온 인원은 14명이며, 나머지 3명은 2023년 12월 1일 위협분석단 소속이 됐다.
위협분석단은 KISA의 핵심 부서로 통한다. 민간기업에서 사이버 침해사고가 발생하면 원인을 분석하고 재발방지 대책 마련을 지원하는 업무를 담당한다. 하루가 멀다하고 크고 작은 사이버 보안 사고가 발생하는 상황에서 위협분석단 인원 절반 이상이 업무 경력이 짧아 전문성에 의구심이 드는 건 아쉬운 대목일 수밖에 없다.
침해사고가 발생한 기업의 현장을 찾아 기술지원을 하는 포렌식팀 인원의 경력을 살펴봐도 역량에 물음표가 생긴다. 팀 업무를 총괄하는 팀장을 제외한 '침해사고 원인분석 및 재발방지 지원' 업무를 맡은 팀원 23명 가운데 16명이 해당 업무 경력이 2년이 안 된다. 포렌식팀은 상황관제 등 KISA 내부에서 업무하는 다른 부서와 달리 침해사고 현장에 출동하는 팀으로, 침해사고 대응의 중요한 역할을 하고 있다.
이러한 상황에서 위협분석단에서만 11년 넘게 재직한 A직원이 올해 퇴사했으며, 지난해에도 9년 넘게 몸담은 B직원이 KISA를 떠났다.
KISA 내부 사정에 정통한 정보보호산업계 관계자는 “보안 사고대응 업무는 전문성을 요구하다 보니 KISA가 특정 인원은 순환보직에서 제외해 장기간 업무를 수행할 수 있는 제도를 운영했다”며 “하지만 최근 이 제도가 유명무실해졌고 큰 폭으로 인사가 이뤄져 민간으로 자리를 옮긴 침해 대응 인력이 상당수”라고 귀띔했다.
관련기사링크 : https://www.etnews.com/20251015000213
중앙부처와 지방자치단체 공무원 10명 중 7명은 실제 업무에 인공지능(AI)을 활용한 경험이 있는 것으로 집계됐다.
행정기관이 작성하는 문서의 90% 이상이 AI가 읽기 어려운 포맷으로 작성되고 있는 것으로 나타났다.
위성곤 더불어민주당 의원실이 13일 공개한 '공공분야 AI 활용 현황' 설문조사 결과에 따르면, 전국 행정기관 종사자 1만4208명 중 91.1%가 보고서·계획서 등 행정문서를 주로 HWP(한글)나 이미지·스캔 PDF 등 AI가 인식하기 어려운 형식으로 작성하고 있다고 답했다.
이번 조사는 지난달 17일부터 이달 6일까지 중앙부처, 광역·기초지자체 공무원을 대상으로 실시됐다.
전체 응답자의 68.9%는 챗GPT, 클로드, 코파일럿, 제미나이, 하이퍼클로바X 등 생성형 AI를 실제 업무에 활용한 경험이 있다고 답했다.
그러나 인터넷망 등 외부 개방망을 통한 사용 비율이 높아 정보 유출 우려도 제기됐다. AI를 사용하는 공무원 1만2738명 중 인터넷망(개방형 망)에서 사용한다는 응답은 54.5%로 절반을 넘었다.
인터넷망과 업무망을 병행한다는 응답(12.9%)까지 포함하면 외부망 활용 비율은 67.5%에 달했다.
AI 활용 용도(복수응답)는 △자료 검색·정리(41.5%) △행정문서 작성·요약(30.8%)△회의록·보고서 요약(14.1%) △녹취록 요약(5.6%) 순이었다.
관련기사링크 : https://www.etnews.com/20251013000204