
Beatrice Nolan
Reporter at Fortune
Reporter @fortunemagazine • Formerly Tech Reporter @businessinsider (she/her) ✉️ [email protected] Signal: beatricenolan.08
Articles
-
5 days ago |
fortune.com | Beatrice Nolan
The AI lab said it tested 16 major AI models from Anthropic, OpenAI, Google, Meta, xAI, and other developers in various simulated scenarios and found consistent misaligned behavior. While they said leading models would normally refuse harmful requests, they sometimes chose to blackmail users, assist with corporate espionage, or even take more extreme actions when their goals could not be met without unethical behavior.
-
1 week ago |
fortunekorea.co.kr | Beatrice Nolan
AI 업계에서 가장 영향력 있는 기업 중 하나인 오픈AI(OpenAI)가 내부 통제, 리더십, 안전 문화에서 심각한 문제를 안고 있다는 지적이 제기됐다. ‘OpenAI 파일(The OpenAI Files)’이라는 이름의 새로운 보고서는 오픈AI가 과연 인공지능의 안전한 개발이라는 초심을 유지하고 있는지 근본적인 의문을 제기하고 있다. 이 보고서는 두 비영리 감시단체인 미다스 프로젝트(The Midas Project)와 테크 오버사이트 프로젝트(The Tech Oversight Project)가 공동 작성했으며, 법적 문서, 미디어 보도, 내부 관계자 증언 등을 바탕으로 구성됐다. 수익 중심 모델로 방향을 트는 오픈AI의 최근 행보에 경고를 던지며, 책임 있는 리더십과 대중적 책무를 위한 개혁이 필요하다고 강조했다. 보고서는 “AI가 인간의 지능에 필적할 날이 머지않았다는 오픈AI의 비전” 아래 이뤄지는 일련의 리더십 및 통치 구조 문제를 낱낱이 조명한다.
OpenAI files reveal deep leadership concerns about Sam Altman and safety failures within the AI labs
1 week ago |
fortune.com | Beatrice Nolan
The lengthy report, which is billed as the “most comprehensive collection to date of documented concerns with governance practices, leadership integrity, and organizational culture at OpenAI,” was put together by two nonprofit tech watchdogs, the Midas Project and the Tech Oversight Project. It draws on sources such as legal complaints, social media posts, media reports, and open letters to tryto assemble an overarching view of OpenAI and the people leading the lab.
-
1 week ago |
fortune.com | Beatrice Nolan
Speaking to Fortune at Viva Technology in Paris, the Hugging Face co-founder said that while large language models (LLMs) have shown an impressive ability to find answers to questions, they fall short when trying to ask the right ones—something Wolf sees as the more complex part of true scientific progress. “In science, asking the question is the hard part, it’s not finding the answer,” Wolf said.
-
1 week ago |
fortunekorea.co.kr | Beatrice Nolan
오픈AI는 자사가 개발 중인 차세대 인공지능 모델이 생물학 무기 개발에 악용될 가능성이 크게 높아질 수 있다고 경고했다. 과학적 지식이 거의 없는 일반인조차도 AI의 도움을 받아 위험한 생물 제제를 만들어낼 수 있는 시대가 올 수 있다는 우려다. 이에 따라 오픈AI는 관련 안전성 테스트를 대폭 강화하고 있다고 밝혔다. 오픈AI 경영진은 최근 악시오스(Axios)에 “향후 출시될 일부 모델이 자사의 ‘위기 대비 프레임워크(preparedness framework)’ 기준상 최고 위험 등급에 해당할 가능성이 있다”고 밝혔다. 이 프레임워크는 AI 기술이 고도화됨에 따라 발생할 수 있는 잠재적 위험을 사전에 평가하고 통제하기 위한 내부 체계다. 오픈AI의 안전 시스템 총괄 요하네스 하이데케는 “우리가 개발 중인 추론 모델(o3)의 후속작들 중 일부는 최고 위험 수준에 도달할 것으로 보고 있다”고 말했다.
Try JournoFinder For Free
Search and contact over 1M+ journalist profiles, browse 100M+ articles, and unlock powerful PR tools.
Start Your 7-Day Free Trial →X (formerly Twitter)
- Followers
- 954
- Tweets
- 76
- DMs Open
- Yes