Hadoop 文件系統多次關閉的問題
今天我犯了一個BUG。在我讀寫文件的時候,Hadoop拋異常說文件系統已經關閉。
2013-05-20 17:39:00,153 ERROR com.sunchangming.searchlog.CopyAppLogs: err on 2013051918_api_access_65.gz java.io.IOException: Filesystem closed at org.apache.hadoop.hdfs.DFSClient.checkOpen(DFSClient.java:319) at org.apache.hadoop.hdfs.DFSClient.getFileInfo(DFSClient.java:1026) at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:524) at org.apache.hadoop.fs.FileSystem.exists(FileSystem.java:768) at com.sunchangming.searchlog.CopyAppLogs.copyFile(CopyAppLogs.java:51) at com.sunchangming.searchlog.CopyAppLogs.access$000(CopyAppLogs.java:18) at com.sunchangming.searchlog.CopyAppLogs$1.run(CopyAppLogs.java:194) at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471) at java.util.concurrent.FutureTask$Sync.innerRun(FutureTask.java:334) at java.util.concurrent.FutureTask.run(FutureTask.java:166) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) at java.lang.Thread.run(Thread.java:722)
然后我就查,為什么呢。我剛剛用final FileSystem dfs = FileSystem.get(getConf()); 得到它啊。
后來發現,我是一個多線程的程序。FileSystem.get(getConf())返回的可能是一個cache中的結果,它并不是每次都創建一個新的實例。這就意味著,如果每個線程都自己去get一個文件系統,然后使用,然后關閉,就會有問題。因為你們關閉的可能是同一個對象。而別人還在用它!
所以***是在main函數中就創建好filesystem對象然后在不同函數之間來回傳遞吧。在main函數用用try…finally關閉它。
多線程程序中,如果你確保在你的get和close之間不會有別人調用get,也沒問題。