当前位置: 首页 > 面试题库 >

Eclipse:java.lang.NoClassDefFoundError:javax / activation / DataHandler

盛骏祥
2023-03-14
问题内容

我正在尝试用Java发送电子邮件。这是代码:

String mailSmtpHost = "smtp.example.com";
String mailTo = "email@example.com";
        String mailFrom = "email@example.com";
        String mailSubject = "Email subject";
        String mailText = "Some text";
        Properties properties = new Properties();
        properties.put("mail.smtp.host", mailSmtpHost);
        Session emailSession = Session.getDefaultInstance(properties);
try {
            Message emailMessage = new MimeMessage(emailSession);
            emailMessage.addRecipient(Message.RecipientType.TO, new InternetAddress(mailTo));
            emailMessage.setFrom(new InternetAddress(mailFrom));
            emailMessage.setSubject(mailSubject);
            emailMessage.setText(mailText);
            emailSession.setDebug(true);
            Transport.send(emailMessage);
        }catch(Exception e) {
            System.out.println("Errore email: "+e.toString());
        }

当我编译项目时,在线:

Message emailMessage = new MimeMessage(emailSession);

…出现以下错误:

Exception in thread "main" java.lang.NoClassDefFoundError: javax/activation/DataHandler

注意:我正在使用 java -version: 9.0.4


问题答案:

JDK 9默认禁用对许多javax。* API的访问,现已弃用javax激活。

但是,您可以通过在运行时添加模块来解决它

"--add-modules java.activation".


 类似资料:
  • Extensions are activated lazily in VS Code. As a result you need to provide VS Code with context as to when your extension should be activated. We support the following activation events: onLanguage:$

  • 我正试着用java发一封电子邮件。代码如下: 当我编译项目时,在线: ...出现以下错误: 注意:我正在使用java版本

  • 我正在使用intelliJ IDEA中的谷歌应用引擎和maven开发一个webapp。 到目前为止一切都很好,直到我尝试使用发送电子邮件,我收到了这个错误: 我已经放置了所需的依赖项( 在本地修复它的一种方法是在vm选项中添加“--add modules java.activation”,当我在本地运行它时,它可以正常工作并发送电子邮件,但当我部署应用程序时,它无法工作。 我的问题是,有没有办法将

  • LeakyReLU层 keras.layers.advanced_activations.LeakyReLU(alpha=0.3) LeakyRelU是修正线性单元(Rectified Linear Unit,ReLU)的特殊版本,当不激活时,LeakyReLU仍然会有非零输出值,从而获得一个小梯度,避免ReLU可能出现的神经元“死亡”现象。即,f(x)=alpha * x for x < 0,

  • LeakyReLU层 keras.layers.advanced_activations.LeakyReLU(alpha=0.3) LeakyRelU是修正线性单元(Rectified Linear Unit,ReLU)的特殊版本,当不激活时,LeakyReLU仍然会有非零输出值,从而获得一个小梯度,避免ReLU可能出现的神经元“死亡”现象。即,f(x)=alpha * x for x < 0,

  • 本文向大家介绍Jebrains付费插件Activation code[持续更新],包括了Jebrains付费插件Activation code[持续更新]的使用技巧和注意事项,需要的朋友参考一下 使用本Activation code需要jetbrains-agent支持! 插件Activation code: 06KU174Y5C-eyJsaWNlbnNlSWQiOiIwNktVMTc0WTVDI