요즘 AI 코딩 보조 도구들 정말 신기해요.
제가 짜놓은 코드의 로직 오류를 척척 잡아내서 수정해주면, 일단 코드가 돌아가게 만드는 것만으로도 너무 감사하거든요.
그런데 궁금한 게 생겼어요.
AI가 "여기에 문제가 있습니다.
이렇게 고치세요"라고 수정해주고 끝나는 경우도 많은데, 저 같은 입문자 입장에서는 그게 전부인지 궁금해서요.
혹시 오류를 찾아서 고쳐주는 것 외에, 이 코드가 왜 그렇게 동작하게 되었는지, 혹은 제가 처음에 어떤 '사고의 흐름'에서 이 오류를 만들었는지 같은 맥락적인 설명까지도 함께 해주면 정말 좋을 것 같아요.
기술이 편리함을 주긴 하지만, 그 편리함이 혹시 '이해의 깊이'까지 대체해버리는 건 아닌지, 사용자 입장에서 적절한 지점의 '피드백의 깊이'가 궁금해서요.
상황별 AI 피드백 기대치 설정하기 1.
사용자 입장에서의 학습 방법론 및 주의사항 (가장 중요!) 질문자님이 걱정하시는 '이해의 깊이 대체' 문제는 결국 **'AI를 어떻게 질문하느냐'**에 달렸다고 봅니다.