应该还好吧,文件有多大,我遇到的几次瓶颈不是readLine的问题,而是String与String直接相加,导致效率低下,你查查看有没有这种可能solofisher (坏了) 在 ta 的帖子中提到:比如有一个上百M的文本文件,一行一行的大概有100多万行吧我想查询最后靠后一些行的数据,为节省时间,我试过:1:用BufferedReader.readline(),我事先建立一个数据的index,来告诉我某keyword在第几行,然后不断readline()并累加行数知道读到目标行效果不好,读到最后几行在我的机器上要4-5秒...2:用Reader.skip(longcharNum),我事先建立一个数据的index,来告诉我某keyword之前共有多少个字符,然后用skip()跳过这些字符效果也不好,和方法一效率差不多...3:把大文件分割成若干小文件...理论肯定会提高效率,不过我在写代码分割一个超大文件时第一个文件和最后一个文件正常,中间的若干文件出现乱码...现在还没弄清原因...........................