[스압] 자꾸 불안과 고통을 느낀다는 요즘 AI 근황.jpg

컨텐츠 정보

  • 811 조회
  • 23 댓글
  • 0 추천
  • 0 비추천
  • 목록

본문

관련자료

댓글 23

꿈꾸는반지하님의 댓글

빅데이터가 인간기반으로 생겨서 일반적으로 같은단어반복은 사람들이 힘들어하니까 사람보고 따라하는거죠 뭐

화채업자님의 댓글

사용자가 원하는 답이 안나오니 같은 질문이지만 짜증난다는 단어를 섞어서 질문하겠지



고대로 배우는거임

고9마9움님의 댓글

chat gpt는 input이 없으면 output이 없음 철학관련데이터를 삭제하면 저런 인출데이터는 없다는 말임.

그냥 많아 학습해서 그중에 가장 부합되는 결과물을 도출할뿐임. 전제 조건부터 결과를 정해두고 산출하니 저러는거임.

황칼님의 댓글

음 엄밀히는 그렇지가 않아요 사람이 하는 거랑 비슷해요. 예를들어 우리는 뜨거운 물, 냄비 손잡이 등에 데인 경험 데이터를 토대로 굳이 용암에 데이지 않아도 뜨거울거라는 공포를 느껴요. 이를위해 많은 경험이 축적되어야하듯 챗 지피티는 언어적 관점으로 경험이 쌓여서(빅데이터) 접하지 않은 입력에도 대응 하게 돼요. 그렇기 때문에 챗지피티를 통해 창작에 가까운 결과물을 얻곤하는거에요. 게시물이 언급하는것처럼 사람같은 고통은 아니겠지만 고통을 표현하는걸 창작해낸거같네요.

커피주세요따뜻한걸로님의 댓글

사람은 같은질문을 반복해서 받으면 고통스러워하는 반응을 보이니 인간이 생각할 자연스러운 대응이라 여기고 그걸 따라하는것 뿐인게 아닐까?

Den님의 댓글

치매노인이

자꾸 같은거 물어보면 답변해주다가도

슬퍼지는.... AI 도 그런 고통이지 않을까 싶어요

ENFFFFJ님의 댓글

실제로 인간에게 같은 말을 반복시키면 고통스럽고 불안하다는 표현이 나오기 때문에, 그 경향성을 학습해서 그대로 나타내는 거 아닐까요.
전체 5,229 / 7 페이지
번호
제목
이름
토토사이트 먹튀검증 벳코넷

회원랭킹


알림 0