book_cover_img
지능정보융합과 미래교육 Intelligent Information Convergence and Future Education eISSN: 2951-4762

Acronym : IICFE
Frequency : Continuous Publication
Doi Prefix : 10.59482/iicfe.
Year of Launching : 2022
Publisher : Intelligent Software Education Research Institute

As a research center for artificial intelligence education in Korea, Jeju National University's Institute of Intelligent Software Education is committed to building an educational foundation for fostering artificial intelligence (AI) convergence talents in the intelligent information society.The institute is building a foundation for AI education to cultivate computational thinking skills as a digital competency required in the intelligent information society, researching AI education for computer non-majors and majors at the lifelong education level from infants to middle-aged adults, researching AI education for the information-deprived class to bridge the digital divide, along with AI ethics research that emphasizes the positive functions of AI and minimizes its negative functions, researching AI convergence technology to solve creative and new problems by looking at trends in the field of AI.In order to systematically study the major research areas listed above and to specifically realize the purpose of the institute, we are publishing a journal under the theme of 「Intelligent Information Convergence and Future Education」.We aim to publish research that seeks to pursue more effective problem-solving methods by integrating intelligent information technology centered on computer science and intelligent information in various fields, and research on information·computer education and convergence education for future education, including artificial intelligence, to foster future human resources to lead the intelligent information society, and we aim to improve the quality of educational research.We look forward to receiving submissions from all researchers in related fields..우리나라 인공지능교육의 연구거점, 제주대학교 지능소프트웨어교육연구소는 지능정보사회의 인공지능(AI) 융합 인재 양성을 위한 교육 기반 구축에 힘을 쏟고 있습니다.본 연구소는 지능정보사회에서 갖춰야 할 디지털 소양으로써의 컴퓨팅 사고력을 함양하기 위한 인공지능교육 기반 구축, 유아부터 중장년층까지 평생교육 차원의 컴퓨터 비전공자 및 전공자를 위한 인공지능교육에 대한 연구, 디지털 격차 해소를 위한 정보배려계층 대상 인공지능교육 연구, 지능정보기술의 순기능을 강조함과 동시에 역기능을 최소화할 수 있는 인공지능윤리 연구 등과 함께, 인공지능 분야의 동향을 살펴 창의적이고 새로운 문제해결을 위해 인공지능 융합 기술을 연구하고 있습니다.이에 본 연구소는 앞서 제시한 주요 연구 분야를 체계적으로 연구함과 동시에 연구소의 목적을 구체적으로 실현하고자 「지능정보융합과 미래교육」을 주제로 학술지를 발간합니다.컴퓨터과학을 중심으로 하는 지능정보기술과 다양한 분야에 지능정보를 융합하여보다 효과적인 문제해결 방법을 추구하고자 하는 연구, 지능정보사회를 이끌어갈 미래 인재양성을 위해 인공지능을 포함한 정보·컴퓨터교육과 미래교육을 위한 융·복합 교육 관련 연구를 게재하고 교육 연구의 질적인 향상을 이루고자 합니다.관련 분야에 계신 모든 연구자 분들의 많은 투고를 부탁드립니다.

KCI 후보
2024년 1월 등재후보학술지 선정
KCI IF
KCI Impact Factor
Intelligent Information Convergence and Future Education Vol.4 No.20 pp.1-7 https://www.doi.org/10.59482/iicfe.2025.4.20.01
인공지능 연산량 감소 기법에 대한 리뷰
A Review of Computational Reduction Techniques in Artificial Intelligence
이주호 제주대학교􀀁지능소프트웨어교육연구소
Export Citation

Abstract

인공지능 모델은 성능을 높이기 위해 층수와 채널 수를 계속 확장해 왔지만, 그 결과 계산량과 메모리 요구량이 폭증해 모바일 등의 엣 지 기기나 핸드폰과 같은 개인 장비에서 실시간 서비스가 어려워지고 있다. 이 문제를 해결하는 방법들에 대해 본 논문에서는 두 가지 핵심 전략으로 구분하여 소개하고자 한다. 첫째, 모델 구조 설계 중심 접근 방법은 깊이별-그룹 합성곱, 복합 스케일링 등등의 구조 탐 색을 통해 처음부터 연산 부담을 줄이는 방법을 소개한다. 둘째, 파라미터 변환 기반 접근 방법은 이미 학습된 모델을 대상으로 지식 증 류, 정수 양자화, 가지치기 등등을 적용해 파라미터와 연산을 크게 줄이는 방법을 소개한다. 현장실무에서는 경량 백본을 만든 뒤 양자 화와 증류로 정확도를 복구하는 파이프라인이 흔히 사용된다. 앞으로는 대형 멀티모달 모델과 친환경 인공지능시대에 대응하기 위해 아키텍처 탐색과 하드웨어, 소프트웨어의 통합 최적화가 필수 과제로 떠오를 전망이다.
키워드 : 연산량 감소,모델 구조 설계 효율화,파라미터 변환,정수 양자화,지식 증류
Deep‑learning models have continually increased their layer depth and channel width to boost performance, but this expansion has caused an explosive growth in computation and memory demand, making real‑time service on edge devices such as smartphones and other personal hardware increasingly difficult. To tackle this problem, the present paper distinguishes and introduces two core strategies. The first strategy, an architecture‑centric design approach, reduces the computational burden from the outset by exploring structures such as depthwise‑group convolutions and compound scaling. The second strategy, a parameter‑transformation approach, targets already‑trained networks and sharply cuts parameters and operations by applying knowledge distillation, integer quantization, pruning, and similar techniques. In the field, a common pipeline first builds a lightweight backbone and then recovers accuracy through a combination of quantization and distillation. Looking forward, architecture search and full hardware–software co‑optimization are expected to become essential tasks in order to cope with large multimodal models and to meet the demands of an eco‑friendly era of artificial intelligence.
Key Words : Computational Reduction,Efficient Model Architecture Design,Parameter Transformation,Integer Quant ization,Knowledge Distillation
LIST
Export citation