当前位置: 首页 > 知识库问答 >
问题:

在Apache上集成PHP,在Tomcat上集成Java

那鹏
2023-03-14

1)我正在使用

              a) JSP : Front-end programming language
              b) PHP : Backend Programming language

2)这两种语言不需要集成Tomcat就可以在Apache服务器上运行。

3)但是,为了增强网站的逻辑性,我们使用Java作为另一种后端编程语言。

4)目前,该Java需要与网站的JSP和PHP页面进行集成。

5)因此,在一个JSP文件中,一部分代码可以是Java的,一部分代码可以是PHP的。

6)理想情况下,如果部分PHP代码运行在Apache服务器上,Java代码运行在Tomcat服务器上,那就太好了。

7)另外,请让我知道找到一个PHP servlet的集成,它可以用来在Tomcat服务器上运行PHP代码。

共有1个答案

巫培
2023-03-14

PHP不在Tomcat中运行;它由Apache模块运行(如果您使用的是Apache!)

JSP和Java将在Tomcat中运行。JSP不能在Apache中运行。

有几种方法可以将Tomcat集成到Apache中。

就您似乎想要做的事情而言--我将研究如何在php或Java/JSP中实现它。

如果您不能这样做,那么您可以在php或Java中实现一些REST之类的服务,并从其他系统调用它们。如果你想把事情变得很大,这可能是一件好事,但是当事情不是很大时,你将不得不管理额外的复杂性,尤其是使用完全不同的语言。

 类似资料:
  • Apache Cassandra 的 Bolt API 实现 这个库提供了 Apache Cassandra 之上的核心 storm bolt . 提供简单的 DSL 来 map storm Tuple 到 Cassandra Query Language Statement (Cassandra 查询语言 Statement). Configuration (配置) 以下属性可能会传递给 sto

  • 针对 Apache Solr 的 Storm 和 Trident 集成. 该软件包包括一个 bolt和 trident state,它们可以使 Storm topology 将 storm tuples 的内容索引到 Solr collections. Index Storm tuples 到 Solr collection 中 bolt 和 trident state 使用一个提供的 mappe

  • Hive 提供了 streaming API, 它允许将数据连续地写入 Hive. 传入的数据可以用小批量 record 的方式连续提交到现有的 Hive partition 或 table 中. 一旦提交了数据,它就可以立即显示给所有的 hive 查询. 有关 Hive Streaming API 的更多信息请参阅 https://cwiki.apache.org/confluence/disp

  • Storm组件和 HDFS 文件系统交互. Usage 以下示例将pipe(“|”)分隔的文件写入HDFS路径hdfs://localhost:54310/foo。 每1000个 tuple 之后,它将同步文件系统,使该数据对其他HDFS客户端可见。当它们达到5MB大小时,它将旋转文件。 // use "|" instead of "," for field delimiter RecordFo

  • Storm/Trident integration for Apache HBase Usage The main API for interacting with HBase is the org.apache.storm.hbase.bolt.mapper.HBaseMapper interface: public interface HBaseMapper extends Serializa

  • 提供核心的 Storm 和Trident 的spout实现,用来从Apache Kafka 0.8x版本消费数据. ##Spouts 我们支持 Trident 和 core Storm 的spout.对于这两种spout实现,我们使用BorkerHosts接口来跟踪Kafka broker host partition 映射关系,用KafkaConfig来控制Kafka 相关参数. ###Brok