![[논문 리뷰] Intuitive physics understanding emerges from self-supervised pretraining on natural videos](/assets/images/blog/20260427-paper-2502-11831-intuitive-physics-understandin.jpg)
[논문 리뷰] Intuitive physics understanding emerges from self-supervised pretraining on natural videos
We investigate the emergence of intuitive physics understanding in general-purpose deep neural network models trained to predict masked regions in natural videos. Leveraging the violation-of-expectati...
![[논문 리뷰] Intuitive physics understanding emerges from self-supervised pretraining on natural videos](/assets/images/blog/20260405-paper-2502-11831-intuitive-physics-understandin.jpg)
[논문 리뷰] Intuitive physics understanding emerges from self-supervised pretraining on natural videos
We investigate the emergence of intuitive physics understanding in general-purpose deep neural network models trained to predict masked regions in natural videos. Leveraging the violation-of-expectati...
![[논문 리뷰] Internalizing Agency from Reflective Experience](/assets/images/blog/20260319-paper-2603-16843-internalizing-agency-from-refl.jpg)
[논문 리뷰] Internalizing Agency from Reflective Experience
Large language models are increasingly deployed as autonomous agents that must plan, act, and recover from mistakes through long-horizon interaction with environments that provide rich feedback. Howev...
![[논문 리뷰] Language Models are Injective and Hence Invertible](/assets/images/blog/20260319-paper-2510-15511-language-models-are-injective-.jpg)
[논문 리뷰] Language Models are Injective and Hence Invertible
Transformer components such as non-linear activations and normalization are inherently non-injective, suggesting that different inputs could map to the same output and prevent exact recovery of the in...
![[논문 리뷰] Attention Residuals](/assets/images/blog/20260318-paper-2603-15031-attention-residuals.jpg)
[논문 리뷰] Attention Residuals
Residual connections with PreNorm are standard in modern LLMs, yet they accumulate all layer outputs with fixed unit weights. This uniform aggregation causes uncontrolled hidden-state growth with dept...
![[논문 리뷰] Sparking Scientific Creativity via LLM-Driven Interdisciplinary Inspiration](/assets/images/blog/20260317-paper-2603-12226-sparking-scientific-creativity.jpg)
[논문 리뷰] Sparking Scientific Creativity via LLM-Driven Interdisciplinary Inspiration
Despite interdisciplinary research leading to larger and longer-term impact, most work remains confined to single-domain academic silos. Recent AI-based approaches to scientific discovery show promise...
세명대 데이터지능연구실, 국제학술대회 'IEEE BigComp 2026'서 우수논문상 Runner-Up 수상
데이터지능연구실 김재성(3학년), 길상현(4학년) 학생이 IEEE BigComp 2026에서 LLM 내부 표현 공간 분석 및 다국어 안전성 연구 논문 2편을 채택받고, Best Paper Award Runner-Up을 수상했다.
세명대 컴퓨터학부 데이터지능연구실, 'KDBC 2025' 우수논문상 동상 수상
이하은 학생(3학년)과 이수안 교수 연구팀이 조명 변화에 강건한 단안 깊이 추정 모델 연구로 KDBC 2025 우수논문상 동상을 수상했다.
세명대-지오비전-강원대 공동연구팀 세계 최고 권위 'AAAI' 논문 채택
이수안 교수(세명대 컴퓨터학부 학부장)가 2저자로 참여한 투명 신경망 모델 GATSM 논문이 세계 최고 권위의 AI 학술대회 AAAI 2026에 채택되었다.
세명대 데이터지능연구실, KCC 2025서 우수상 영예
이수안 교수가 학부생 김병학과 공동 연구한 "대규모 언어 모델을 활용한 진로 성숙도 검사 응답 자동 분석 및 피드백 생성" 논문으로 KCC 2025에서 우수상을 수상했다.
세명대 컴퓨터학부 데이터지능연구실, 2025 한국컴퓨터종합학술대회 대상 수상
이수안 교수가 지도한 데이터지능연구실이 K-GovExam 데이터셋 개발로 KCC 2025에서 대상을 수상했다. 학부생 김재성, 길상현이 sLLM 및 벡터 학습 연구에 참여했다.
인하대 이우기 교수 연구팀, 장비 고장진단에 인공지능 적용 논문 발표
이수안 교수가 인하대 음성AI연구소 객원연구원 및 세명대 겸임교수로서 인하대 이우기 교수팀과 함께 장비 고장진단 AI 연구에 참여했다.
제천 'AI 행정활용 미리보기' - 이수안 세명대 교수 특별강연
이수안 교수가 제천시청에서 160여 명의 공직자를 대상으로 AI 기술 행정업무 활용 방안 및 미래 전략에 대한 특별 강연을 진행했다.
제천제일고, 지역 문화와 AI 융합 스마트팜 프로그램 운영
이수안 교수가 제천제일고등학교 H-스마트팜 교육 프로그램에서 "인공지능과 스마트팜" 주제로 특강을 진행했다.
미래 고급인력 소멸…초거대AI 등 디지털 역량 강화해 생산성 극대화해야
이수안 교수가 생성형AI의 데이터 분석 민주화에 대해 "비전문가도 AI 대화형 모델을 활용해 더 직관적인 UI로 쉽게 데이터를 분석할 수 있을 것"이라고 전망했다.
한국통계정보원, 통계정보발전포럼 개최
이수안 교수가 2023 통계정보발전포럼 2세션에서 "인공지능을 통한 통계데이터 분석 혁신" 주제로 발표하며 AI 기반 데이터 분석의 대중화를 전망했다.
세종시 빅데이터 활용 행정서비스 대전환
이수안 교수가 세종시 공무원 약 150명을 대상으로 "공공데이터 이해와 챗GPT 활용 방안" 주제로 디지털 역량 강화 교육을 진행했다.
세명대 컴퓨터학부 학부생, SCI급 국제저널 논문 게재
이수안 교수가 지도한 신재광 학생이 산업용 기계 소리를 통한 고장 탐지 딥러닝 모델 연구로 SCI급 국제저널 Electronics에 교신저자로 논문을 게재했다.
